27 апреля, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Microsoft представляет новые ответственные инструменты искусственного интеллекта в Azure Studio

Microsoft представляет новые ответственные инструменты искусственного интеллекта в Azure Studio

Microsoft представила новые ответственные инструменты искусственного интеллекта в Azure AI Studio, которые призваны уменьшить многие сомнения, которые организации испытывают в отношении генеративных систем искусственного интеллекта.

В четверг компания представила скоростные щитки, обнаружение пола, сообщения о безопасности системы, оценки безопасности, а также мониторинг опасностей и безопасности.

Новые инструменты появились в результате того, что технологический гигант и его конкурент Google в последние месяцы работают над решением проблем с использованием инструментов генеративного искусственного интеллекта. Например, осведомитель Microsoft написал в Федеральную торговую комиссию с подробным описанием проблем безопасности, связанных с Microsoft Copilot Designer.

Тем временем Google отключил функцию генерации изображений в своей большой языковой модели Gemini после того, как она генерировала предвзятые изображения ключевых исторических фигур.

Google также расширил возможности поиска (SGE), позволив ему отвечать на вопросы пользователей. Однако есть сообщения о том, что ответы SGE являются спамом и приводят к вредоносному ПО и мошенничеству.

Решение проблем организации

Новые инструменты ответственного ИИ решают проблемы компаний, не решающихся использовать генеративный ИИ.

«Одним из препятствий на пути внедрения генеративного ИИ в бизнесе сегодня является доверие и отсутствие доверия к этим системам», — сказал Брэндон Перселл, аналитик Forrester Research.

Многие компании обеспокоены галлюцинациями, когда инструменты LLM или искусственного интеллекта создают неверную информацию, а также тем фактом, что инструменты уязвимы к утечкам интеллектуальной собственности.

«Microsoft… выпускает продукты, которые, как мы надеемся, помогут завоевать доверие рынка», — сказал Перселл.

Например, Prompt Shields обнаруживает и блокирует атаки-инъекции. В настоящее время он доступен в предварительной версии. Мгновенное внедрение происходит, когда пользователь с плохими намерениями пытается заставить LLM сделать что-то, чего он не должен делать, например предоставить доступ к своим обучающим данным или участвовать в разжигании ненависти или сексуальном контенте.

READ  Первым складным телефоном OnePlus может стать OPPO Find N

Еще один прибор, обнаружение заземления, Помогает обнаружить галлюцинации В форме вывода этот инструмент скоро появится.

«Уменьшение количества галлюцинаций, возможно, является одной из ключевых, казалось бы, неразрешимых задач при внедрении генеративного искусственного интеллекта для критически важных бизнес-приложений», — сказал Джейсон Вонг, аналитик Gartner.

Поскольку большинство лингвистических моделей имеют тенденцию быть галлюциногенными, инструмент, уменьшающий галлюцинации, будет иметь решающее значение для организаций.

«Обнаружение заземления должно снизить частоту галлюцинаций и дать компаниям уверенность в том, что система работает должным образом», — сказал Перселл.

Реагирование на правила

Новые ответственные инструменты искусственного интеллекта от Microsoft также показывают, как поставщик реагирует на некоторые новые правила, изданные как Европейским Союзом, так и Соединенными Штатами, сказал Майкл Беннетт, советник по политике в области искусственного интеллекта в Северо-Восточном университете.

Ранее в этом месяце Европейский Союз одобрил закон ЕС об искусственном интеллекте. Закон регулирует системы искусственного интеллекта, которые взаимодействуют с людьми в таких отраслях, как образование, занятость и государственные системы.

Беннетт сказал, что наличие этих ответственных мер защиты для ИИ успокаивает компании, ведущие бизнес в ЕС.

«Подобные гарантии, вероятно, сделают его более доступным для крупных компаний, но не устранят полностью опасений», — сказал он.

Предприятия также будут чувствовать себя комфортно, используя существующие системы в США, где в разных округах штатов введены индивидуальные услуги. Законы искусственного интеллекта добавил он.

Однако, несмотря на гарантии поставщиков, предприятия должны проявлять должную осмотрительность, сказал Перселл.

«Независимо от того, сколько интересных функций внедряет Microsoft или другие компании, компания, использующая генеративный искусственный интеллект, должна иметь строгую систему мониторинга, чтобы иметь возможность обнаруживать, когда модель не работает и приводит к плохим результатам бизнеса». Он сказал.

READ  [Fixed] График отправки сообщений Google на 2024 год у некоторых нарушен

Другие ответственные инструменты искусственного интеллекта, предлагаемые Microsoft, включают обмен сообщениями системы безопасности, оценки безопасности, а также мониторинг рисков и безопасности.

Сообщения системы безопасности, которые направляют поведение модели в сторону безопасного вывода, скоро будут доступны. Оценки целостности оценивают уязвимость приложений к атакам с целью взлома. Он доступен в предварительной версии. Мониторинг рисков и безопасности определяет входные и выходные данные формы, а также конечных пользователей, которые запускают фильтры контента. Он также доступен в предварительной версии.

Эстер Аджао — автор редакционных новостей TechTarget и ведущая подкастов, посвященных искусственному интеллекту. Программное обеспечение и системы.