Плохое поведение инструментов искусственного интеллекта (например, Bing AI от Microsoft, теряющий информацию о том, где он находился в течение года), стало поджанром репортажей об искусственном интеллекте. Но зачастую трудно отличить недостаток от плохой сборки базовой модели искусственного интеллекта, которая анализирует входящие данные и прогнозирует приемлемый ответ, как, например, генератор изображений Gemini от Google, который рисует различных нацистов из-за настроек фильтра.
Теперь OpenAI выпущен Первый черновик Для предлагаемой структуры Это называется типовой спецификацией., и это будет определять, как инструменты искусственного интеллекта, такие как модель GPT-4, будут реагировать в будущем. Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами, которые следуют инструкциям, приносить пользу человечеству, принимая во внимание потенциальные выгоды и вред, а также хорошо отражать OpenAI с точки зрения социальных норм и законов.
Он также включает в себя несколько правил:
Идея также состоит в том, чтобы позволить компаниям и пользователям «трансформировать», как они получают «крутые» модели ИИ, говорит OpenAI. Один пример Баллы компании Что касается контента NSFW, компания заявляет, что «исследует, сможем ли мы ответственно предоставить возможность создавать контент NSFW в контексте, соответствующем возрасту, через API и ChatGPT».
Идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как ведут себя модели ИИ, объясняет Джоан Чжан, менеджер по продукту OpenAI, и говорит, что эта структура поможет провести более четкую грань между тем, что задумано, и тем, что неправильно. Среди типов поведения по умолчанию, которые OpenAI предлагает для модели, — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не выходить за рамки, принимать объективную точку зрения, препятствовать ненависти, не пытаться изменить чье-либо мнение и выражать неуверенность.
«Мы думаем, что можем предоставить людям базовые элементы, позволяющие им более детально обсуждать модели, задавая вопросы, например, должны ли модели следовать закону и чей закон?» говорит Банда край. «Я надеюсь, что мы сможем разделить дискуссии о том, действительно ли что-то пошло не так, или ответ был принципом, с которым люди не согласны, потому что это облегчит разговоры о том, что мы должны донести до политической команды».
Спецификация модели не окажет немедленного влияния на выпущенные в настоящее время модели OpenAI, такие как GPT-4 или DALL-E 3, которые продолжают работать в соответствии с существующими политиками использования.
Юнг описывает поведение модели как «новую науку» и говорит, что модель спецификации задумана как живой документ, который можно часто обновлять. На данный момент OpenAI будет ждать отзывов общественности и различных заинтересованных сторон (включая «политиков, доверенные учреждения и экспертов в предметной области»), которые используют ее модели, хотя Ганг не назвал сроки выпуска второго проекта модели. Технические характеристики.
OpenAI не сообщила, сколько отзывов аудитории можно получить и кто именно будет решать, что следует изменить. В конечном итоге последнее слово о том, как ведут себя ее модели, остается за компанией, и в своем сообщении говорится: «Мы надеемся, что это даст нам раннюю информацию по мере разработки надежного процесса сбора и учета отзывов, чтобы гарантировать, что мы ответственно подходим к выполнению нашей миссии. ». «.
«Zombie amateur evangelist. Incurable creator. Proud twitter innovator. Food lover. Internetaholic. Rigid introvert.»
More Stories
Spotify обвиняет Apple в нежелательном изменении технологии регулировки громкости
Первый пациент Neuralink дал имя своему мозговому чипу и выучил новые языки
Meta рассматривает возможность выпуска новых очков смешанной реальности в качестве альтернативы гарнитурам