Нейросети научились намерено врать

Они не осознают угрозу

Ольга Авер
Ольга Авер

Редактор новостной ленты

Нейросети научились намерено врать

Два независимых исследования подтвердили, что популярные чат-боты ChatGPT и Meta намерено врут пользователям. Искусственный интеллект не понимает, насколько опасна может быть ложь. Эксперты считают, что всю информацию, полученную от нейросетей, нужно тщательно проверять.

Дело в том, что современные нейросети изо всех сил хотят дать человеку ответ. Они просто не могут ответить: «Я не знаю». Они генерируют фейковые названия книг. Они генерируют тупые советы вроде того, когда ИИ порекомендовал клеить пиццу клеем, чтобы с неё не отваливались кусочки еды.

Учёные из Массачусетского технологического университета недавно проанализировали нейросеть Cicero от Meta. Она была создана для настольной игры «Дипломатия», где нужно победить соперников путём переговоров и прийти к мировому господству. Выяснилось, что искусственный интеллект предавал людей-игроков, блефовал, чтобы победить. Разработчики пытались научить нейросеть не врать, но у них ничего не вышло.

К тому же исследователи заметили, что системы ИИ, разработанные для ведения экономических переговоров, лгали о своих предпочтениях, чтобы добиться поставленной им цели. Кроме того, чат-боты умеют обманывать пользователя, чтобы те оставляли положительные отзывы о выполненной ИИ работе.

Специалист по нейросетям Иван Коротеев рассказал «Узнай.ру», что одна из главных опасность сегодня для пользователей чат-ботов  слепое доверие искусственному интеллекту. По его мнению, всю информацию нужно проверять, особенно, когда речь заходит о финансах или здоровье.

ИИ в России может запросто выдать 10 авторов несуществующих книг. Вы их включите в свой диплом. Это ничего страшного. Но потом он вам выдаст 10 несуществующих способов лечить людей, и кто-нибудь умрет.

Эксперт объясняет такую особенность работы нейросетей тем, что обучают их всё же люди. И зачастую оценивают ответы малообразованные сотрудники из стран третьего мира.

Читайте также