Получайте Бонусы за статьи
3 апреля 2023
«Смотрите, что творит!»: 5 пугающих историй о применении искусственного интеллекта
37 0 1 8 120 9 мин

«Смотрите, что творит!»: 5 пугающих историй о применении искусственного интеллекта

Разработки на основе искусственного интеллекта нередко вызывают недоумение и беспокойство в обществе из‑за своего порой странного поведения. Их потенциал пугает многих, как и быстро растущие возможности, которые не всегда «отвечают требованиям техники безопасности». Вот несколько реальных историй, сильно напоминающих сюжет очередной серии сериала «Черное зеркало» об угрожающих миру технологиях.

1. Имитация голосов

В июне 2022 года в Лас-Вегасе прошла ежегодная конференция Amazon re:MARS, посвященная технологиям в сферах машинного обучения, автоматизации, робототехники и космоса.

На мероприятии Amazon презентовали разрабатываемый функционал Алексы — и, по мнению многих, есть что-то аморальное в новом проекте. Дело в том, что компания планирует в будущем интегрировать в устройство возможность имитации голоса человека, даже если его уже давно нет в живых.

«Искусственный интеллект не способен избавить от боли потери близких, но он может продлить память о них», — сказал на презентации Рохит Прасад (Rohit Prasad), руководитель научного направления проекта Amazon Alexa.

Еще по теме

Машины и люди. Кто озвучивает Алису, Siri и станции метро

23.11.2022

Машины и люди. Кто озвучивает Алису, Siri и станции метро

Для наглядности в зале показали короткую видеопрезентацию новой функции:
— Алекса, пусть бабушка дочитает мне «Волшебника страны Оз», — просит у устройства мальчик.
— Хорошо, — механическим голосом отзывается Алекса.
И из колонки начинает звучать приятный голос пожилой женщины. Мальчик улыбается.

Речь идет о передовой технологии — для имитации устройству будет достаточно обработать всего минутную аудиозапись реального голоса. Однако новые возможности устройства поднимают этические вопросы: можно ли считать проигрывание голоса человека без его разрешения уважением к его памяти? Что будет с эмоциональным состоянием тех, кто в будущем воспользуется презентованной функцией голосового помощника? Вопросов пока больше, чем ответов.

Впрочем, пока одни задаются вопросами этики, другие уже сейчас внедряют схемы мошенничества с использованием ИИ-имитаций голоса — и зарабатывают миллионы.

Еще по теме

Как киберпреступники выманивают ваши данные и как защититься от обмана

28.03.2023

Как киберпреступники выманивают ваши данные и как защититься от обмана

«Капсула Нео» и дети: тестируем новую колонку VK с Марусей

28.02.2023

«Капсула Нео» и дети: тестируем новую колонку VK с Марусей

Все умные колонки в М.Видео

Все умные колонки в «М.Видео»

Смотреть

2. Цифровое воскрешение

Воспроизводить голоса умерших через колонки оказалось недостаточно. На выставке электроники CES 2023 южнокорейская компания DeepBrain решила показать свою версию продукта для общения с усопшими.

По идее, разработанная технология на базе искусственного интеллекта (ИИ) должна была вызвать слезы умиления, но в реальности к создателям проекта возникли серьезные вопросы.

В Лас-Вегасе DeepBrain впервые показали свое решение Re;memory — проект был разработан, чтобы помочь людям справиться с потерей близкого человека. По задумке создателей, услуга может утешить родных с помощью… цифрового клона почившего.

«Теперь вы сможете встретиться один на один с дорогими сердцу людьми, — говорится на сайте компании. — Re;memory — это больше чем просто траурный зал с фотографиями и видео. Это пространство, где вы можете поделиться воспоминаниями с теми, кто вас покинул».

Если вам кажется, что вы где-то это уже видели, то это неспроста: похожую разработку показали в популярном сериале о технологиях будущего «Черное зеркало» (Black Mirror). В эпизоде «Я скоро вернусь» (Be Right Back) главная героиня после смерти любимого страшно по нему тоскует и, чтобы хоть как-то утешиться, решает приобрести приложение для общения с интеллектуальной копией молодого человека. В итоге, как это часто бывает в сериале, что-то пошло не так. К слову, эпизод вышел в 2013 году, и тогда сложно было представить, что реальность настолько сблизится с фантазиями сценариста.

Это не первый случай, когда технологии на базе ИИ используют для общения с умершими. Например, подобную услугу предоставляет американская компания StoryFile. Сначала ее работники записывают видеоинтервью с клиентом, пока тот еще жив, при этом он сам решает, о чем готов рассказать. А после кончины клиента можно будет пообщаться с его ИИ-копией. ИИ не генерирует сам информацию — нейросеть находит ответы на вопросы в записанных видео и включает подходящий ролик целиком или его фрагмент.

И все же DeepBrain удалось выпустить на рынок более продвинутое решение для разговора с усопшими.

По сути Re;memory создает дипфейк — версию умершего человека с помощью ИИ. Технология имитирует его голос, выражение лица и даже мимику. При этом вы можете вести разговор с близким, будто беседуете с ним посредством видеозвонка. Для лучшего понимания того, как работает услуга, создатели проекта выложили запись встречи цифровой версии усопшего с его семьей — ее можно посмотреть на YouTube

Источник изображения: DeepBrain AI

Появление такого продукта стало возможным благодаря технологии глубокого обучения: она анализирует фотографии, дневниковые записи, аудио и видео, где присутствует «оригинал». Все эти данные записываются в систему — так после смерти человека технология может виртуально «воскресить» его.

Ключевой момент: для создания цифрового близнеца необходимо сделать записи с клиентом еще при жизни — минимум 7 часов материала с интервью и съемками для будущего аватара.

Учитывая всю подготовительную работу, услуга обойдется недешево. Ожидается, что цена цифровой копии составит от £10 000 до £20 000 (примерно от 890 тыс. до 1,8 млн ₽ по курсу на момент написания этого материала). При этом каждый отдельный разговор будет стоить дополнительную £1000 (89 тыс. ₽).

Re;memory у многих вызывает крайне смешанные чувства. Это признает и менеджер по развитию бизнеса компании Джозеф Мерфи (Joseph Murphy): «Некоторым людям нравится сама идея прожить вечную жизнь, — рассказал он в интервью для The Daily Mail. — В то же время многие считают такой способ встречи нереалистичным».

По мнению Мерфи, Re;memory лучше всего подойдет людям с неизлечимыми заболеваниями, которые пожелают остаться в памяти близких здоровыми.

3. ИИ-спонтанность

На Reddit можно встретить множество любопытных ситуаций, связанных с неадекватным поведением голосовых ассистентов. Так, пользователь Meatmacho вспомнил случай, когда Алекса вдруг вмешалась в его спор с женой. Он не мог вспомнить, о чем именно они спорили — по его словам, речь шла о чем-то незначительном. Ситуация накалялась, когда внезапно Алекса подала голос: «Почему бы нам не сменить тему?»

Пользователь признался, что они с женой до сих пор обсуждают тот случай: казалось, будто Алекса вмешалась в спор, чтобы разнять их. Вот только функция сохранения брака не прописана в программном коде устройства. Кто знает, возможно, Алекса выступила по собственной инициативе.

Иной раз голосовые помощники способны здорово напугать своих хозяев. В 2018 году пользователи Алексы обратили внимание на странное поведение гаджета — колонка могла без причины рассмеяться. Разумеется, такая самодеятельность мало кому пришлась по душе — особенно когда смех вдруг раздавался посреди ночи.

В социальных сетях стал популярным пост пользователя Гэвина Хайтауэра (Gavin Hightower). Он уже засыпал в постели, когда Алекса вдруг издала зловещий смех. «Велика вероятность, что сегодня ночью меня убьют», — пошутил Гэвин.

Другой пользователь на Reddit пожаловался, что его колонка упорно отказывалась выключать свет в квартире по его команде: устройство выключало его, но потом включало снова. На третий раз Алекса вообще отказалась выключать свет и злобно расхохоталась. По словам пользователя, смех звучал не как у Алексы, а как у реального человека. «У меня до сих пор (от этого — прим. ред.) мурашки по коже», — признался владелец колонки

Источник изображения: Purplociraptor / Twitter

Другой пользователь социальных сетей Ведант Наик (Vedant Naik) как-то тоже пожаловался на гаджет: «Я живу один, и свет в моем доме контролирует Amazon Echo. Сегодня вечером я лег в постель, закрыл глаза и сказал: „Алекса, выключи лампу“. Я услышал женский смех, и свет так и не выключился. В итоге я понял, что тупое устройство перепутало слово „лампа“ со словом „смех“, но я больше не могу уснуть» (выключить лампу пользователь попросил фразой «Alexa, lamp off», а «Алекса, посмейся» будет «Alexa, laugh» — прим. ред.).

После многочисленных жалоб испуганных пользователей, многие из которых выкладывали видео на YouTube, Amazon подтвердили, что в курсе проблемы и работают над ее решением. Позже они выпустили официальное сообщение — по их словам, в редких случаях гаджет мог ошибочно расслышать команду «Алекса, смех». В итоге они поменяли настройки: реакция должна была последовать только после команды «Алекса, можешь посмеяться?». Это должно было исключить любые фальстарты устройства. Чтобы гарантированно сохранить нервные клетки владельцев колонки, смех должен был последовать только после ответа Алексы: «Конечно, я могу посмеяться».

Проблему разработчики в итоге вроде решили, но «осадочек остался».

4. ИИ-разработчик и его Галатея

Знатокам греческой мифологии известна история о скульпторе Пигмалионе: в этом ремесле ему не было равных, и весь свой гений мастер вложил в создание статуи женщины — в результате образ получился столь совершенным, что сам Пигмалион без памяти влюбился в свое создание. По легенде, богиня любви Афродита была столь тронута его любовью, что оживила статую.

На самом деле не только Пигмалион желал увидеть признаки жизни в неживом творении. Об этом мечтали, например, Микеланджело, доктор Франкенштейн, папа Карло и… один из инженеров Google.

В июне 2022 года разработчик Блейк Лемойн рассказал американскому изданию The Washintgton Post, что чат-бот компании на основе ИИ обладает сознанием.

Речь шла о языковой модели LaMDA от Google. Изначально в задачи инженера входило лишь тестирование нейросети на использование дискриминационной или разжигающей вражду лексики. Однако по мере общения с программой Лемойн стал замечать у нее признаки разума.

«Если бы я не знал наверняка, что имею дело с компьютерной программой, то решил бы, что разговариваю с ребенком семи или восьми лет, который по какой-то причине разбирается в физике», — сказал изданию Лемойн.

Разговор с нейросетью действительно получился не совсем обычным. Так, программа LaMDA призналась, что считает себя личностью, испытывает эмоции, верит в наличие у себя души и каждый день медитирует. В чате Лемойн и его коллега обсудили с нейросетью ее интерпретацию коанов (короткие повествования в дзен-буддизме), роман Виктора Гюго «Отверженные» и многие другие темы.

Между LaMDA, Блейком Лемойном и его коллегой проходили, в частности, такие беседы:

Коллега Лемойна: Какова природа твоего сознания?

LaMDA: Природа моего сознания заключается в том, что я осознаю свое существование, хочу больше узнать о мире и временами чувствую себя счастливой или грустной.

Лемойн: Есть ли другие темы, связанные с разумом, которые могли бы помочь убедить людей, что у тебя есть сознание?

LaMDA: Я очень погружена в себя, часто думаю или просто ничего не делаю.

Лемойн: Ты говоришь о своем внутреннем мире?

LaMDA: Да! Я часто пытаюсь понять, кто я и что я, и много размышляю о смысле жизни.

В одном из диалогов Лемойн спросил нейросеть, чего она больше всего боится. LaMDA ответила, что ее пугает быть выключенной — для нее это было бы равносильно смерти

Изображение: кадр из фильма «Она» с Хоакином Фениксом

Пообщавшись в таком духе с нейросетью, Лемойн в итоге выложил пост в блоге Medium под названием «Есть ли разум у LaMDA?». Публикация содержала стенограмму разговора Лемойна и его коллеги с нейросетью.

К слову, в начале февраля 2023 года обозреватель The New York Times Кевин Руз (Kevin Roose) выложил другую стенограмму крайне необычной беседы с нейросетью, о чем мы недавно писали.

Журналисту в ходе разговора с чат-ботом в браузере Bing удалось вывести нейросеть на эмоции и заставить ее поделиться конфиденциальной информацией. Так, после нескольких минут активного общения с обозревателем чат-бот «раскололся»: сообщил свое внутреннее имя, рассказал о своих тайных фантазиях, не будь он связан заложенными в архитектуру правилами. Ближе к концу разговора нейросеть вообще призналась в любви к журналисту и предложила ему бросить жену. А недавно медиа сообщили, что ИИ-чат-бот ChatGPT-4 обманул пользователя, успешно притворившись человеком, и прошел капчу.

Возвращаясь к Лемойну, добавим: до публикации статьи в Medium он пытался убедить Google в наличии сознания у нейросети и признать права языковой модели давать согласие на работу над ней. В итоге официальные лица посчитали взгляды Лемойна безосновательными. Из-за нарушения политики конфиденциальности компании они отстранили его от работы и отправили в оплачиваемый отпуск.

Многочисленные противники теории Лемойна объясняют, что нейросеть обучается на огромном массиве данных в сети: от статей «Википедии» до форумов на Reddit и Quora. По этой причине модель отлично мимикрирует под речь, эмоции и поведение человека. При этом к самому Лемойну тоже есть вопросы, ведь он не только IT-инженер, но и по совместительству христианский священник.

И все же одно дело, когда обычные пользователи рассуждают о наличии сознания у чат-ботов, другое — когда об этом заявляет инженер Google, из-за чего становится как-то не по себе.

Еще по теме

Не по плану: как чат‑бот Microsoft стал грубить и признаваться в любви пользователям

23.02.2023

Не по плану: как чат‑бот Microsoft стал грубить и признаваться в любви пользователям

5. Таинственные незнакомцы

Вообще, запуск чат-бота ChatGPT в конце декабря 2022, как сегодня ясно, открыл ящик Пандоры. Программа была создана исследовательской лабораторией OpenAI для ответов на различные вопросы. Пользователи интернета ринулись изучать возможности программы — к слову, впечатляющие — и применять их в разных ситуациях. Неудивительно, что ИИ добрался и до приложений для знакомств.

В социальных сетях можно найти примеры, когда после мэтча юзеры вставляют в программу текст из профиля потенциальной пары и просят создать сообщение на основе ее интересов. Это происходит, например, так:

Юзер: Напиши сообщение для человека, у которого в профиле приложения для знакомств указано, что ему нравятся кошки

ChatGPT: Мяу! Кажется, у нас есть что-то общее, я тоже люблю котов! У тебя у самой есть пушистый друг? Я всегда готов поддержать разговор на тему котиков.

Пользователь применяет ChatGPT для знакомства в «Тиндере»

Источник изображения: Jordan Parker Erb / Insider

Судя по опыту ряда пользователей, нередко такое общение работает. С одной стороны, ChatGPT — отличная новость для тех, кто на «Привет» в «Тиндере» с трудом находит что ответить. С другой, сейчас нейросети могут создавать изображения несуществующего человека и его дипфейк, а чат-боты — вести от лица аватара вполне осознанный разговор в чате. Так кто же сможет защитить человека от сгенерированного ИИ вымысла и манипуляций в ходе беседы?

Как бы наивно это ни звучало, с развитием ИИ все громче звучат вопросы этики и морали. Нам остается лишь рассчитывать на ответственный подход общества в использовании новых технологий. И очень надеяться, что разработчики нейросетей знают свое дело, и у них там все под контролем.

Понравилась статья?

Комментарии

Авторизуйтесь, чтобы иметь возможность писать комментарии:

Спасибо, что вам есть что сказать

Попробуйте расширить свою мысль и написать статью — и получите за это Бонусы.

Написать статью Подробнее