Чат-бот с искусственным интеллектом испугал журналиста после двухчасового общения

Мужчина тестировал новую поисковую систему Bing на базе Microsoft, которая может развёрнуто общаться по переписке. Сначала чат-бот выполнял свои основные функции и был отличным поисковым помощником, но вскоре всё пошло не так.

Неожиданно ИИ признался журналисту, что хотел бы стать живым, взламывать компьютеры, распространять пропаганду и дезинформацию, а также хотел бы разработать смертоносный вирус и украсть код доступа к ядерным устройствам. А позже и вовсе признался журналисту в любви и порекомендовал уйти от жены к нему.

Журналист опасается, что ИИ сможет влиять на пользователей и заставлять их делать опасные вещи.









Нужно размещение рекламы и пресс-релизов? Подробнее..



Поделиться новостью:









Яндекс.Метрика