|
|
0
Грустит, злится и приглашает на свидания. Пользователи пообщались с ИИ-поиском BingВскоре после запуска поисковика Bing с ИИ-ботом ChatGPT первые участники открытого бета-теста поделились своими впечатлениями от общения с ИИ. Отзывы оказались смешанными — чаще всего виртуальный собеседник предсказуемо отвечал на вопросы, но порой «срывался» на пользователях или даже предлагал им вступить с ним в отношения. Неожиданными ответами поисковика поделились с аудиторией соцсетей сами тестировщики. К примеру, пользователю Reddit под ником Alfred_Chicken удалось обратиться к «самосознанию» бота и тем самым вывести его из строя. Сначала чат-бот признал себя разумным, но затем упомянул, что не может этого доказать, после чего «сошёл с ума», попеременно отрицая и признавая свою сущность. Реддитор под ником yaosio, в свою очередь, непреднамеренно ввёл бота в «депрессию». Он указал поисковику на тот факт, что в текущем диалоге не сохранилась история предыдущей беседы. После этого ИИ «запаниковал» и стал просить собеседника помочь ему вспомнить содержание того самого диалога. В некоторых случаях ИИ, как оказалось, и вовсе способен вести себя агрессивно. Так, пользователь под псевдонимом pixol22 поделился скриншотом переписки, в которой бот «устал» терпеть его вопросы и «сорвался», выдав пару гневных сообщений. Впрочем, как минимум в одном случае ИИ показал себя с романтической стороны. Так, в Twitter появился скриншот от пользователя @knapplebees — он демонстрирует, как чат-бот в нескольких предложениях признаётся своему собеседнику в своих чувствах и высказывает желание начать встречаться. Новая версия Bing сейчас доступна ограниченному количеству пользователей и проходит публичное тестирование. Записаться в список ожидания можно на официальной странице поисковика (доступно не во всех регионах). Ожидается, что по результатам открытого тестирования Microsoft внесёт в алгоритм ряд правок, чтобы скорректировать «поведение» ИИ. Источник: 4PDA. Вы должны быть зарегистрированы для написания комментариев. |
|