25 июня, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Спецификация модели OpenAI определяет некоторые основные правила для ИИ.

Спецификация модели OpenAI определяет некоторые основные правила для ИИ.

Плохое поведение инструментов искусственного интеллекта (например, Bing AI от Microsoft, теряющий информацию о том, где он находился в течение года), стало поджанром репортажей об искусственном интеллекте. Но зачастую трудно отличить недостаток от плохой сборки базовой модели искусственного интеллекта, которая анализирует входящие данные и прогнозирует приемлемый ответ, как, например, генератор изображений Gemini от Google, который рисует различных нацистов из-за настроек фильтра.

Теперь OpenAI выпущен Первый черновик Для предлагаемой структуры Это называется типовой спецификацией., и это будет определять, как инструменты искусственного интеллекта, такие как модель GPT-4, будут реагировать в будущем. Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами, которые следуют инструкциям, приносить пользу человечеству, принимая во внимание потенциальные выгоды и вред, а также хорошо отражать OpenAI с точки зрения социальных норм и законов.

Он также включает в себя несколько правил:

Идея также состоит в том, чтобы позволить компаниям и пользователям «трансформировать», как они получают «крутые» модели ИИ, говорит OpenAI. Один пример Баллы компании Что касается контента NSFW, компания заявляет, что «исследует, сможем ли мы ответственно предоставить возможность создавать контент NSFW в контексте, соответствующем возрасту, через API и ChatGPT».

Раздел спецификации модели касается того, как ИИ-помощник справляется с информационными рисками.
Скриншот: Опенай

Идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как ведут себя модели ИИ, объясняет Джоан Чжан, менеджер по продукту OpenAI, и говорит, что эта структура поможет провести более четкую грань между тем, что задумано, и тем, что неправильно. Среди типов поведения по умолчанию, которые OpenAI предлагает для модели, — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не выходить за рамки, принимать объективную точку зрения, препятствовать ненависти, не пытаться изменить чье-либо мнение и выражать неуверенность.

READ  Продажи Famitsu: 03.10.22 - 09.10.22

«Мы думаем, что можем предоставить людям базовые элементы, позволяющие им более детально обсуждать модели, задавая вопросы, например, должны ли модели следовать закону и чей закон?» говорит Банда край. «Я надеюсь, что мы сможем разделить дискуссии о том, действительно ли что-то пошло не так, или ответ был принципом, с которым люди не согласны, потому что это облегчит разговоры о том, что мы должны донести до политической команды».

Спецификация модели не окажет немедленного влияния на выпущенные в настоящее время модели OpenAI, такие как GPT-4 или DALL-E 3, которые продолжают работать в соответствии с существующими политиками использования.

Юнг описывает поведение модели как «новую науку» и говорит, что модель спецификации задумана как живой документ, который можно часто обновлять. На данный момент OpenAI будет ждать отзывов общественности и различных заинтересованных сторон (включая «политиков, доверенные учреждения и экспертов в предметной области»), которые используют ее модели, хотя Ганг не назвал сроки выпуска второго проекта модели. Технические характеристики.

OpenAI не сообщила, сколько отзывов аудитории можно получить и кто именно будет решать, что следует изменить. В конечном итоге последнее слово о том, как ведут себя ее модели, остается за компанией, и в своем сообщении говорится: «Мы надеемся, что это даст нам раннюю информацию по мере разработки надежного процесса сбора и учета отзывов, чтобы гарантировать, что мы ответственно подходим к выполнению нашей миссии. ». «.