25 апреля, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Подумайте так и ответьте мне: этот подход ИИ использует активную векторизацию для управления большими языковыми моделями.

Подумайте так и ответьте мне: этот подход ИИ использует активную векторизацию для управления большими языковыми моделями.

Источник: https://arxiv.org/pdf/2302.12246.pdf

Мы все познакомились с большими языковыми моделями (LLM) в последние месяцы с введением ChatGPT, и он быстро стал важным инструментом в нашей повседневной жизни. LLms полезны для поиска информации, помощи в чате, помощи при наборе текста и т. д.

В целом, LLM обладают сильными логическими способностями, что означает, что они могут использовать логические рассуждения или дедукцию, чтобы прийти к решению на основе определенной информации. Они могут делать выводы, делать выводы и логически связывать фрагменты информации. Например, они могут отвечать на такие вопросы, как «Предположим, у вас есть последовательность чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности?«

Задачи на рассуждение сложнее, чем более простые задачи на понимание языка, потому что они требуют более высокого уровня понимания и способности рассуждать. LLM хороши в этом, но все меняется, когда мы просим их хорошо выполнять сложные логические задачи.

Простой способ сориентировать LLM — учиться в контексте. Здесь, прежде чем подавать основную заявку, вы можете дать своему LLM набор примеров вопросов и ответов, чтобы вы могли знать, что вы действительно хотите спросить. Например, вы можете изменить подсказку с «SДопустим, у вас есть ряд чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности? « на «Вопрос: Предположим, у вас есть последовательность чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности? A: Это 12, потому что каждое число увеличивается на два. В: Предположим, у вас есть ряд чисел: 3, 7, 11, … Какое следующее число в последовательности?Таким образом, LLM может видеть CoT и соответствующим образом адаптироваться.

READ  Банкир, который десятилетиями подрабатывал официантом, заработал 25 000 евро в WRC - The Irish Times

Было показано, что стимуляция CoT наделяет LLM хорошими способностями к рассуждениям. Тем не менее, на самом деле определение и аннотирование полезных вопросов с CoT и ответами зависит от человеческой инженерии. Как вы можете себе представить, серия вопросов и ответов, которые вы даете, имеет первостепенное значение.

Учитывая большое разнообразие задач логического вывода по сложности, объему и объему, неясно, какой тип вопроса должен быть приоритетным для аннотации. Кроме того, неясно, является ли тот или иной набор примеров наиболее эффективным для получения предполагаемой информации. С другой стороны, если мы сможем определить важные вопросы, их аннотирование будет очень простой задачей. Вопрос в том, как вы выбираете вопросы.

Это место активная подсказка приходит очередь. Он предлагает решение этой проблемы, воспользовавшись неопределенностью и предложив некоторые человеческие усилия для прояснения небольшого набора вопросов.

Иллюстрация предлагаемого подхода. источник: https://arxiv.org/pdf/2302.12246.pdf

Предлагаемый метод сначала вводит несколько мер для описания неопределенности среди прогнозов LLM. Эти меры неопределенности затем используются для ранжирования наиболее неоднозначных вопросов, и эти вопросы выбираются для комментариев. Затем генерируются ответы, например, с использованием метода CoT с несколькими импульсами или метода CoT с нулевым импульсом.

Для оценки неопределенности используются четыре различных подхода: несогласие, энтропия, дисперсия и уверенность в себе. Каждая из этих стратегий предлагает уникальный взгляд на природу неопределенности, но основное внимание уделяется использованию методов несогласия и энтропии. Дискорд — это подсчет уникальных ответов в прогнозах. С другой стороны, более высокая энтропия указывает на большую неопределенность, а более низкая энтропия указывает на меньшую неопределенность. В результате, когда дело доходит до сложных рассуждений, вопросы с относительно высокой энтропией, скорее всего, будут рассматриваться как возможные варианты.

READ  Microsoft предлагает комплекты Xbox Series X напрямую «уважаемым клиентам»

Предлагаемое решение оценивается на нескольких логических задачах, и результаты показывают, что оно превосходит базовые методы с точки зрения точности и эффективности. В документе также представлен анализ показателей неопределенности и показано, как их можно использовать для повышения производительности модели.

В заключение, активная директива является решением проблемы определения наиболее важных и полезных вопросов для аннотации в претензии CoT. Они увеличивают неопределенность и предназначены для уменьшения усилий человека по комментированию набора вопросов. Результаты показывают, что предлагаемое решение превосходит базовые методы и может быть использовано для повышения производительности LLM в задачах рассуждения.


сканировать бумагаИ Код 1 И Код 2. Вся заслуга в этом исследовании принадлежит исследователям этого проекта. Также не забудьте присоединиться 16k+ML Подписка RedditИ Дискорд-каналИ Информационный бюллетень по электронной почтегде мы делимся последними новостями об исследованиях ИИ, крутыми проектами в области ИИ и многим другим.

Экрем Четинкая имеет степень бакалавра. в 2018 году и МА. в 2019 году из Университета Озьегина, Стамбул, Турция. Он написал степень магистра. Диссертация по уменьшению шума изображения с использованием глубоких сверточных сетей. В настоящее время он работает над докторской диссертацией. получил степень в Университете Клагенфурта, Австрия, и работает исследователем в проекте ATHENA. Его исследовательские интересы включают глубокое обучение, компьютерное зрение и мультимедийные сети.