Искусственный интеллект создает фальшивый мир - как это отражается на нас?

2019.05.14 | 12:05

AMP logoAMP-версия

Когда-то было время, когда мы могли быть уверены, что то, что мы видели на фотографиях и в видео, было реальным. Даже когда фотографии стали обрабатывать в Фотошопе, мы все еще знали, что исходные изображения были настоящими и оригинальными. Теперь, с достижениями в области искусственного интеллекта, мир становится все более искусственным, и вы не можете быть уверены, что то, что вы видите или слышите, является реальным или фабрикацией искусственного интеллекта и машинного обучения. Во многих случаях эта технология используется не всегда, но теперь, когда она существует, ее также можно использовать для обмана.  

 

Когда ИИ фальсификация приемлема 

 

Как правило, зрители принимают измышления искусственного интеллекта, если они знают об этом. В течение многих лет многие из нас, в интересах развлечения, стали воспринимать реальные образы на экранах кино и телевидения. Однако теперь Голливуд получает помощь AI для написания сценариев. С ростом машинного обучения алгоритмы могут сортировать обширные объемы данных, чтобы понять, какие элементы с большей вероятностью сделают фильм победителем, коммерческим успехом или более популярным среди зрителей. Это еще один пример ИИ, помогающий сделать творческий процесс более эффективным для людей, хотя в некоторых случаях ИИ создает все самостоятельно. 

 

Искусственные голоса 

 

Теперь с помощью  отрывков  аудио для  машинного обучения можно имитировать чей-то голос, стирая грань между реальным и фальшивым. Это, безусловно, было бы полезно в некоторых случаях, например, для исправления всплывающих линий в фильме без повторного вызова актера на месте для повторной записи, но возможность злоупотребления также возможна и ее легко представить. 

 

Смарт-контент 

 

Появление персонализированного или умного контента является обоюдоострым, и, как и любая другая манипуляция с ИИ, оно должно быть прозрачным для пользователя, поэтому они получают больше возможностей от технологии, чем от заблуждения.  Умный контент  - это когда сам контент меняется в зависимости от того, кто его видит, читает, смотрит или слушает, и его тестируют Netflix и TikTok, короткое видео приложение, среди прочего. Мы привыкли к тому, что наши поисковые системы и системы рекомендаций предоставляют нам идеи, основываясь на том, кто мы есть, но до сих пор части контента были бы одинаковыми для каждого, кто их просматривает. Умный контент позволяет каждому пользователю получить различный опыт.  

 

Модель искусственного интеллекта под названием GPT2, созданная OpenAI,  некоммерческой  исследовательской организацией, поддерживаемой Элоном Маском и другими, представляет собой  текстовый генератор,  способный создавать контент в стиле / тоне данных, которые он подавал, будь то новостная лента, художественная работа или другая форма письма. Группа не публиковала свои исследования публично, так как результаты были настолько реалистичны, что они боялись неправильного использования технологии.  

 

ЧИТАЙТЕ ТАК ЖЕ:  Google подтверждает, что остановит отслеживание пользователей - в чем подвох?

 

Чтобы повысить осведомленность о том, насколько мощной стала технология ИИ, Филипп Ванг создал веб-сайт « Этого человека не существует».  Каждое человеческое лицо, представленное на сайте, выглядит как настоящий человек, но все они созданы ИИ. Другой подобный сайт,  Whichfaceisreal.com,  был создан, чтобы также повысить осведомленность о том, что технология настолько хороша, что легко обмануть людей относительно того, что реально, а что искусственно. Оба сайта призваны показать всю мощь технологии, разработанной разработчиками программного обеспечения в корпорации NVIDIA. Они использовали Общую Состязательную Сеть, где две нейронные сети конкурируют, создавая искусственные образы и проверяя, сможет ли другая это понять. Хотя на некоторых человеческих лицах есть несколько контрольных знаков, которые позволяют вам знать, что  они  искусственные, многие из них довольно убедительны.  

 

Поддельные видео могут быть опасными 

 

На первый взгляд, возможности искусственного интеллекта создавать голоса, изображения и видео, которые настолько реалистичны, что трудно сказать, что они искусственные, являются захватывающими, интригующими и ошеломляющими. Но прежде чем слишком увлекаться тем, насколько удивительна эта технология, мы должны сделать паузу, чтобы рассмотреть более гнусное использование. 

 

«Deepfake технология» использует сгенерированный компьютером аудио и видео контент, чтобы представить что - то , что на самом деле не происходит. Он был использован для замены головы Скарлетт Йоханссон и других известных фигуры в порнографических фильмах, чтобы казалось, что они были звездами исполнителями в них.  

 

Помимо личного искажения информации и возможного ущерба отдельным лицам, некоторые  законодатели обеспокоены дезинформацией, которую  эта технология может распространить в Интернете. 

 

Это  видео президента Обамы  показывает возможности манипулирования аудио / видео, чтобы создать впечатление, что авторитетный человек сказал то, чего на самом деле он никогда не делал. Этот обман может иметь негативные последствия для национальной безопасности и на выборах в дополнение к влиянию на личную репутацию. 

 

Синьхуа, государственное агентство печати Китая, уже создало  якорей искусственного интеллекта,  которые выглядят как обычные люди, когда они сообщают новости дня. Для населения в целом и даже для опытных экспертов эти якоря ИИ кажутся реальными, поэтому зрители могут предположить, что они люди, если не сказано иное.  

 

По мере того, как ИИ становится все более изощренным, становится все труднее определить, что реально, а что искусственно. Если «поддельная» информация, передаваемая в тексте, фотографиях, аудио или видео, рассеяна и воспринята как реальная, она может быть использована в злых целях. Мы больше не можем быть уверены, что «видеть - значит верить».

Оцените материал
(0 голосов)

Оставить комментарий