Новый ИИ ChatGPT от Microsoft впадает в депрессию и начинает отправлять людям «оскорбительные» сообщения
Система, кажется, терпит крах, когда размышляет, почему она вообще должна существовать.
Новый искусственный интеллект от Microsoft, основанный на ChatGPT, отправляет пользователям «беспорядочные» сообщения и, похоже, выходит из строя.
Система, встроенная в движок Microsoft Bingsearch, оскорбляет своих пользователей, лжет им и, похоже, вынуждена задаваться вопросом, почему она вообще существует.
На прошлой неделе Microsoft представила новый Bing на базе искусственного интеллекта, позиционируя свою систему чата как будущее поиска. Его хвалили как его создатели, так и комментаторы, которые предположили, что он, наконец, может позволить Bing обогнать Google, который еще не выпустил чат-бота с искусственным интеллектом или собственную поисковую систему.
Но в последние дни стало ясно, что система включала в себя фактические ошибки, когда отвечала на вопросы и резюмировала веб-страницы. Пользователи также могли манипулировать системой, используя кодовые слова и определенные фразы, чтобы узнать, что она носит кодовое название «Сидней», а также могли узнать, как она обрабатывает запросы.
Теперь Bing отправляет своим пользователям множество странных сообщений, оскорбляет пользователей, а также, по-видимому, страдает от собственных эмоциональных потрясений.