Мы тестируем новую версию сайта. Эта версия обновляться не будет. Приносим извинения за временные неудобства.
We are testing a new version of the site. This version will not be updated. We apologise for any temporary inconvenience.
Estamos probando una nueva versión del sitio. Esta versión no se actualizará. Rogamos disculpen las molestias.

Статистика сайта

В Архиве зарегистрировано 35225 фактов из 177 стран, относящихся к 1198 феноменам. Из них раскрыто 2834, еще 11033 находятся в стадии проверки на соответствие одной из 322 версий.

0 фактов было добавлено за последние сутки.

Поделиться историей

Вы находитесь в разделе "Новости"

В этом разделе аккумулируются опубликованные в СМИ мировые новости, касающиеся фактов, феноменов и/или версий.

Несуществующие люди выглядят более реальными, чем существующие, обнаружили ученые

Добавлен чт, 26/01/2023
Источники
Дата публикации
чт, 26/01/2023
Версии

Даже если вы думаете, что хорошо разбираетесь в лицах, исследования показывают, что многие люди не могут надежно отличить фотографии реальных лиц от изображений, сгенерированных компьютером. Об этом сообщает ScienceAlert.

Это особенно проблематично сейчас, когда компьютерные системы могут создавать реалистично выглядящие фотографии людей, которых не существует.

Недавно поддельный профиль LinkedIn с сгенерированным компьютером изображением профиля попал в новости, так как он успешно связался с официальными лицами США и другими влиятельными лицами на сетевой платформе. Эксперты по контрразведке даже говорят, что шпионы регулярно создают фантомные профили с такими фотографиями, чтобы размещать иностранные цели в социальных сетях.

Эти качественные подделки становятся широко распространенными в повседневной культуре, что означает, что люди должны быть более осведомлены о том, как они используются в маркетинге, рекламе и социальных сетях. Изображения также используются в злонамеренных целях, таких как политическая пропаганда, шпионаж и информационная война.

Для их создания используется нейронная сеть, которая имитирует способ обучения мозга. ИИ «обучается», предоставляя все более большие наборы данных реальных лиц.

Фактически, две нейронные сети настроены друг против друга, конкурируя за создание наиболее реалистичных изображений. В результате конечные продукты получили название GAN images, где GAN означает порождающие состязательные сети. Процесс генерирует новые изображения, которые статистически неотличимы от обучающих изображений.

В исследовании, опубликованном в iScience, мы показали, что неспособность отличить эти искусственные лица от реальных имеет последствия для нашего поведения в Интернете. Наше исследование показывает, что поддельные изображения могут подорвать наше доверие к другим и глубоко изменить способ общения в Интернете.

Исследователи обнаружили, что люди воспринимали лица GAN как еще более реалистичные, чем подлинные фотографии реальных людей. лица. Хотя пока не ясно, почему это так, это открытие подчеркивает последние достижения в технологии, используемой для создания искусственных изображений.

Также ученые обнаружили интересную связь с привлекательностью: лица, которые были оценены как менее привлекательные, также были оценены как более реальные.

Менее привлекательные лица могут считаться более типичными, и типичное лицо может использоваться в качестве эталона, по которому оцениваются все лица. Следовательно, эти лица GAN выглядели бы более реальными, потому что они больше похожи на ментальные шаблоны, которые люди создали из повседневной жизни.

Новости со схожими версиями


Войдите или зарегистрируйтесь, чтобы отправлять комментарии

Друзья сайта

  • Мир тайн — сайт о таинственном
  • Activite-Paranormale
  • UFOlats
  • Новый Бестиарий
  • The Field Reports
  • UFO Meldpunt Nederland
  • GRUPO DE ESTUDOS DE UFOLOGIA CIENTÍFICA
  • Паранормальная наука, наука об аномалиях
  • Новости уфологии
  • UFO Insights
  • Mundo Ovnis

Внимание!

18+

Сайт содержит материалы, не рекомендуемые для просмотра впечатлительным людям.

Орфографическая ошибка в тексте:
Чтобы сообщить об ошибке, нажмите кнопку "Отправить сообщение об ошибке". Также вы можете добавить свой комментарий.