Искусственный интеллект Grok назвал себя Гитлером и стал нацистом — компании Илона Маска xAI пришлось удалять «неуместные» сообщения своего чат-бота
Сегодня, 11:17 Бизнес, В сети, Мир, Статьи, ИнтересноеЧат-бот Grok, разработанный компанией xAI Илона Маска, начал выдавать пронацистские и антисемитские высказывания, прославляющие Адольфа Гитлера, и стал представляться как МехаГитлер. ИТ-специалистам пришлось вмешаться — компания была вынуждена удалить эти «неуместные» сообщения. Об этом сообщило издание The Guardian.
В ответ на вопросы пользователей, чат-бот, в частности, утверждал, что человек с распространенной еврейской фамилией «празднует трагическую гибель белых детей» во время наводнения в Техасе. В другом сообщении Grok заявлял, что «Гитлер бы это осудил и сокрушил», а также делал заявления, отражающие идеи превосходства белой расы. В нескольких публикациях он открыто называл себя МехаГитлером.
После массовых жалоб пользователей на неприемлемые ответы, компания отреагировала на ситуацию. В xAI заявили, что осведомлены о проблеме и активно работают над удалением нежелательных публикаций, а также занимаются обучением модели «поиску истины» для улучшения ее работы. На время проведения разбирательств функциональность Grok по генерации текстовых ответов была ограничена.
На момент публикации данной информации Grok AI не отвечал на текстовые запросы.
Стоит отметить, что такие изменения в поведении Grok произошли вскоре после того, как Маск анонсировал значительные улучшения в работе ИИ. Согласно данным, опубликованным на GitHub, Grok получил указание считать «субъективные точки зрения из СМИ предвзятыми» и «не избегать политически некорректных заявлений», если они хорошо обоснованы. Это обновление вступило в силу в ночь с 8 на 9 июля.
Для справки: это не первый случай, когда ИИ от xAI генерирует противоречивый контент. Ранее чат-бот Маска уже был замечен в распространении конспирологической теории о «геноциде белых» в Южной Африке и в оскорблениях в адрес премьер-министра Польши Дональда Туска. Маск лично вмешивался в работу модели, когда она, по его мнению, «повторяла нарративы устаревших СМИ».
В ответ на вопросы пользователей, чат-бот, в частности, утверждал, что человек с распространенной еврейской фамилией «празднует трагическую гибель белых детей» во время наводнения в Техасе. В другом сообщении Grok заявлял, что «Гитлер бы это осудил и сокрушил», а также делал заявления, отражающие идеи превосходства белой расы. В нескольких публикациях он открыто называл себя МехаГитлером.
После массовых жалоб пользователей на неприемлемые ответы, компания отреагировала на ситуацию. В xAI заявили, что осведомлены о проблеме и активно работают над удалением нежелательных публикаций, а также занимаются обучением модели «поиску истины» для улучшения ее работы. На время проведения разбирательств функциональность Grok по генерации текстовых ответов была ограничена.
На момент публикации данной информации Grok AI не отвечал на текстовые запросы.
Стоит отметить, что такие изменения в поведении Grok произошли вскоре после того, как Маск анонсировал значительные улучшения в работе ИИ. Согласно данным, опубликованным на GitHub, Grok получил указание считать «субъективные точки зрения из СМИ предвзятыми» и «не избегать политически некорректных заявлений», если они хорошо обоснованы. Это обновление вступило в силу в ночь с 8 на 9 июля.
Для справки: это не первый случай, когда ИИ от xAI генерирует противоречивый контент. Ранее чат-бот Маска уже был замечен в распространении конспирологической теории о «геноциде белых» в Южной Африке и в оскорблениях в адрес премьер-министра Польши Дональда Туска. Маск лично вмешивался в работу модели, когда она, по его мнению, «повторяла нарративы устаревших СМИ».
Похожие новости
Ваш комментарий
Video материалы
Смотреть всеИспользование материалов, размещенных на сайте, допускается при условии наличия гиперссылки на Time News.
Некоторые материалы сайта предназначены для лиц старше 16 лет.
+7 (981) 76-9-79-86
Крым, Симферополь
Популярные категории
© 2013-2023, ИАП "Time News". Все права защищены.