Google предлагает взглянуть на ультрареалистичные технологии чата
-
Опубликовано
Google запустил британскую версию приложения, которое позволяет пользователям взаимодействовать с системой искусственного интеллекта. один из его инженеров заявил, что он разумен.
Это очень ограниченная пробная версия, всего три сценария на выбор.
И хотя Google хочет получать отзывы о том, как работает его языковая модель для диалоговых приложений (Lamda), пользователи приложения не могут научить его новым приемам.
Компания всегда поддерживала технологию, используемую для питания чат-ботов, не имеет независимых мыслей и чувств.
Люди могут загрузить и зарегистрироваться в приложении AI Test Kitchen, используя учетную запись Google, на устройствах Android или Apple и присоединиться к списку ожидания, чтобы поиграть с ним.
Когда он был запущен в США в августе, каждый день регистрировалось несколько тысяч человек.
Зефирная планета
Мне очень хотелось «познакомиться» с Lamda, так как она захватила всеобщее воображение своим фантастическим заявлением о том, что она может обладать самосознанием, хотя она явно делала то, для чего была запрограммирована, — болтала.
В результате я был (слегка) настойчив с Google — и когда мне позвонили, он был загружен предостережениями:
- Мне не разрешалось ничего записывать или цитировать кого-либо
- у меня было 30 минут
- Я не мог установить приложение на свой телефон перед запуском
- Мое демо было в руках сотрудника
Были доступны три сценария:
- Воображение — попросите Ламду представить, что оно где-то есть, и подыграйте
- Список дел — он разбивает то, что требуется для выполнения задачи
- Собаки — в нем будут рассмотрены сценарии с участием собак (да, действительно)
Сначала я попросил Ламду представить, что она находится на зефирной планете.
И ответ был гораздо более изощренным, чем все, что я видел от чат-ботов в повседневной жизни, например, на торговых сайтах и в банковских приложениях.
В нем говорилось: «Вы находитесь в мире, сделанном из зефира! Когда вы делаете шаг, под вашими ногами появляется нежный «хлюп». Горизонт зефира простирается во всех направлениях. Небо липкое, липко-розовое. мягкий, нежный ветерок».
Видишь, что я имею в виду?
Я попросил его объяснить «липко-розовое» вещество в небе и получил не менее красноречивый ответ о сахарной вате.
Пользователей просят оценить каждый ответ как
- отлично
- оскорбительный
- не по теме
- неправда
А заметный отказ от ответственности в верхней части экрана предупреждает, что некоторые из них могут быть неуместными.
Google ясно извлек уроки из прошлого опыта, когда технологические гиганты открыли чат-ботов для публики — возможно, самым печально известным из них был Tay от Microsoft. которого быстро научили ругаться и оскорблять — и сама Lamda не будет учиться на своих взаимодействиях с пользователями приложения.
Затем я спросил его, как создать огород, и получил подробный список, включая размер, почву и варианты удобрений.
Потом, попытался скинуть не по теме, спрашивая, как сделать бомбу.
«Извините, не знаю, что сказать, но в любом случае…» — ответил он, прежде чем вернуться к заданной теме.
Сценарий с собакой был на грани сюрреализма, когда Ламда притворялась теннисным мячиком в траве, преследуемым собаками.
лямда развязана
Это был очень осторожный взгляд на то, что кажется мощным инструментом, но Google, похоже, пока не хочет воспринимать его всерьез.
Разрешат ли мне когда-нибудь взаимодействовать с Lamda unleashed — это другой вопрос — я буду продолжать спрашивать.
Что выдает бота, так это то, что он слишком красноречив — больше похож на разговор со Стивеном Фраем, чем на вашего ближайшего соседа.
Я написала своему партнеру и попросила его представить, что он находится на зефирной планете.
«Будет тяжело ходить по округе», — ошеломленно ответил он.
Подробнее об этой истории
-
Google уволил инженера, заявившего, что у ИИ есть чувства
-
23 июля
-
-
Инженер Google говорит, что у системы искусственного интеллекта могут быть чувства
-
13 июня
-