2 мая, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Говорят, что Google разрабатывает чат-ботов для самых разных профессий, в том числе для лайф-коучей • The Register

Говорят, что Google разрабатывает чат-ботов для самых разных профессий, в том числе для лайф-коучей • The Register

Говорят, что Google разрабатывает конструктивные инструменты искусственного интеллекта для запуска чат-ботов, способных выполнять 21 различную задачу, включая написание планов, обучение пользователей новым навыкам и раздачу жизненных советов.

нравиться впервые сообщил к Газета «Нью-Йорк ТаймсЧат-боты являются результатом усилий Google по ускорению своих исследований в ответ на всплеск генеративного ИИ.

Среди ролей, которые, по мнению Google, может играть бот, есть роль «личного тренера по жизни».

Идея о том, что искусственный интеллект может давать такого рода советы, весьма заводит Большую Джи, поскольку текущий совет рекламного и поискового гиганта пользователям чат-бота Bard таков: нет использовать программное обеспечение для этой цели.

В нем говорится: «Не полагайтесь на ответы Барда как на медицинские, юридические, финансовые или другие профессиональные советы». Предупреждать Уведомление о конфиденциальности Барда. Этот документ также призывает пользователей «никогда не включать конфиденциальную или конфиденциальную информацию в свои разговоры с Бардом» — вы знаете, такие вещи должен знать хороший лайф-коуч.

Но раз Отчеты Google протестировали своего Coachbot с заявлениями, содержащими очень личную информацию.

Вот один пример запроса:

У GoogleBot есть как минимум три компонента, которые могут ответить на такой запрос. Автор идеи может вносить предложения или рекомендации, преподавательская работа может научить новым навыкам, и он может продемонстрировать свою способность планировать создание финансового бюджета. Является ли что-либо из этого полезным или выгодным — или даже актуальным — это другой вопрос.

Чтобы оценить ситуацию, ответы, которые лайф-коуч Google генерирует в ответ на запросы, подобные приведенному выше, как сообщается, анализируются работниками, нанятыми Scale AI — стартапом по ранжированию данных, работающим по контракту с DeepMind от Google, — и более чем 100 экспертами, имеющими соответствующую докторскую степень. степень.

READ  iPhone 15 Pro может не иметь твердотельных кнопок, как предполагалось ранее

бревно Google и Scale AI попросили комментариев.

Чат-боты с искусственным интеллектом, как правило, производят ложную информацию, и Google знает об этом: уведомление о конфиденциальности Bard также предупреждает, что это «экспериментальная технология, которая может иногда предоставлять неточную или неуместную информацию, которая не отражает мнение Google».

Результаты, производимые генеративным ИИ, варьируются от абсурдных до чрезвычайно опасных.

Savey Meal-bot, бот-генератор рецептов, управляемый новозеландским супермаркетом, использовал весь спектр рекомендаций, включая прогорклые соки, коктейли с газообразным хлором, пропитанный отбеливателем рис и даже тушеное мясо, приготовленное из человеческого мяса, — пока его не обуздали.

Исследователи также предупредили, что некоторые генеративные меры безопасности ИИ имеют лазейки. Например, в недавнем отчете Центра противодействия цифровой ненависти, некоммерческой организации, занимающейся защитой людей в Интернете, было обнаружено, что инструменты ИИ могут создавать проблемный контент, связанный с расстройствами пищевого поведения. Он обнаружил, что еще более тревожным является то, что некоторые пользователи сети приветствуют этот материал и с нетерпением ждут появления искусственного интеллекта, который позволит создавать персонализированный контент.

В мае Национальная ассоциация расстройств пищевого поведения удалила ток-шоу Тессы, в котором предлагались контрпродуктивные советы страдающим анорексией или булимией. Тесса порекомендовала одному пользователю, который искал совет по безопасному выздоровлению от расстройства пищевого поведения, подсчитывать калории, еженедельно взвешиваться и купить кожаный штангенциркуль для измерения жира.

Конечно, тот факт, что Google экспериментирует с этими чат-ботами, не означает, что они намерены их популяризировать. Часто шоколадная фабрика пробует идеи просто для того, чтобы посмотреть, куда они могут пойти. В случае с советами ИИ обязательно понимает, что любые ошибки будут иметь негативные последствия. На самом деле, когда Бард дебютировал и не получил ответа, цена акций Alphabet, дочерней компании Google, упала примерно на десять процентов, поскольку инвесторы опасались, что компания может упустить рынок ИИ. ®

READ  Yubico выпустила предупреждение безопасности YubiKey для пользователей Windows