Мы все познакомились с большими языковыми моделями (LLM) в последние месяцы с введением ChatGPT, и он быстро стал важным инструментом в нашей повседневной жизни. LLms полезны для поиска информации, помощи в чате, помощи при наборе текста и т. д.
В целом, LLM обладают сильными логическими способностями, что означает, что они могут использовать логические рассуждения или дедукцию, чтобы прийти к решению на основе определенной информации. Они могут делать выводы, делать выводы и логически связывать фрагменты информации. Например, они могут отвечать на такие вопросы, как «Предположим, у вас есть последовательность чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности?«
Задачи на рассуждение сложнее, чем более простые задачи на понимание языка, потому что они требуют более высокого уровня понимания и способности рассуждать. LLM хороши в этом, но все меняется, когда мы просим их хорошо выполнять сложные логические задачи.
Простой способ сориентировать LLM — учиться в контексте. Здесь, прежде чем подавать основную заявку, вы можете дать своему LLM набор примеров вопросов и ответов, чтобы вы могли знать, что вы действительно хотите спросить. Например, вы можете изменить подсказку с «SДопустим, у вас есть ряд чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности? « на «Вопрос: Предположим, у вас есть последовательность чисел: 2, 4, 6, 8, 10, … Какое следующее число в последовательности? A: Это 12, потому что каждое число увеличивается на два. В: Предположим, у вас есть ряд чисел: 3, 7, 11, … Какое следующее число в последовательности?Таким образом, LLM может видеть CoT и соответствующим образом адаптироваться.
Было показано, что стимуляция CoT наделяет LLM хорошими способностями к рассуждениям. Тем не менее, на самом деле определение и аннотирование полезных вопросов с CoT и ответами зависит от человеческой инженерии. Как вы можете себе представить, серия вопросов и ответов, которые вы даете, имеет первостепенное значение.
Учитывая большое разнообразие задач логического вывода по сложности, объему и объему, неясно, какой тип вопроса должен быть приоритетным для аннотации. Кроме того, неясно, является ли тот или иной набор примеров наиболее эффективным для получения предполагаемой информации. С другой стороны, если мы сможем определить важные вопросы, их аннотирование будет очень простой задачей. Вопрос в том, как вы выбираете вопросы.
Это место активная подсказка приходит очередь. Он предлагает решение этой проблемы, воспользовавшись неопределенностью и предложив некоторые человеческие усилия для прояснения небольшого набора вопросов.
Предлагаемый метод сначала вводит несколько мер для описания неопределенности среди прогнозов LLM. Эти меры неопределенности затем используются для ранжирования наиболее неоднозначных вопросов, и эти вопросы выбираются для комментариев. Затем генерируются ответы, например, с использованием метода CoT с несколькими импульсами или метода CoT с нулевым импульсом.
Для оценки неопределенности используются четыре различных подхода: несогласие, энтропия, дисперсия и уверенность в себе. Каждая из этих стратегий предлагает уникальный взгляд на природу неопределенности, но основное внимание уделяется использованию методов несогласия и энтропии. Дискорд — это подсчет уникальных ответов в прогнозах. С другой стороны, более высокая энтропия указывает на большую неопределенность, а более низкая энтропия указывает на меньшую неопределенность. В результате, когда дело доходит до сложных рассуждений, вопросы с относительно высокой энтропией, скорее всего, будут рассматриваться как возможные варианты.
Предлагаемое решение оценивается на нескольких логических задачах, и результаты показывают, что оно превосходит базовые методы с точки зрения точности и эффективности. В документе также представлен анализ показателей неопределенности и показано, как их можно использовать для повышения производительности модели.
В заключение, активная директива является решением проблемы определения наиболее важных и полезных вопросов для аннотации в претензии CoT. Они увеличивают неопределенность и предназначены для уменьшения усилий человека по комментированию набора вопросов. Результаты показывают, что предлагаемое решение превосходит базовые методы и может быть использовано для повышения производительности LLM в задачах рассуждения.
сканировать бумагаИ Код 1 И Код 2. Вся заслуга в этом исследовании принадлежит исследователям этого проекта. Также не забудьте присоединиться 16k+ML Подписка RedditИ Дискорд-каналИ Информационный бюллетень по электронной почтегде мы делимся последними новостями об исследованиях ИИ, крутыми проектами в области ИИ и многим другим.
Экрем Четинкая имеет степень бакалавра. в 2018 году и МА. в 2019 году из Университета Озьегина, Стамбул, Турция. Он написал степень магистра. Диссертация по уменьшению шума изображения с использованием глубоких сверточных сетей. В настоящее время он работает над докторской диссертацией. получил степень в Университете Клагенфурта, Австрия, и работает исследователем в проекте ATHENA. Его исследовательские интересы включают глубокое обучение, компьютерное зрение и мультимедийные сети.
«Зомби-любитель-евангелист. Неизлечимый создатель. Гордый новатор в твиттере. Любитель еды. Интернетоголик. Жесткий интроверт».
More Stories
Spotify обвиняет Apple в нежелательном изменении технологии регулировки громкости
Первый пациент Neuralink дал имя своему мозговому чипу и выучил новые языки
Meta рассматривает возможность выпуска новых очков смешанной реальности в качестве альтернативы гарнитурам