1 мая, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Женщины в искусственном интеллекте: Сара Кребс, профессор государственного управления Корнелльского университета

Женщины в искусственном интеллекте: Сара Кребс, профессор государственного управления Корнелльского университета

Авторы изображений: TechCrunch

Чтобы дать женщинам-ученым и другим людям, занимающимся искусственным интеллектом, заслуженное — и запоздалое — время в центре внимания, TechCrunch запускает серию интервью, посвященную замечательным женщинам, которые внесли свой вклад в революцию искусственного интеллекта. В течение года мы будем публиковать множество статей, поскольку искусственный интеллект продолжает процветать, выделяя ключевые работы, которые часто остаются незамеченными. Больше профилей читайте здесь.

Сара Кребс — политолог, ветеран ВВС США и аналитик, специализирующийся на внешней и оборонной политике США. Она является профессором государственного управления в Корнельском университете, адъюнкт-профессором права на юридической школе Корнелла и научным сотрудником Института современной войны в Вест-Пойнте.

Недавнее исследование Кребса изучает потенциал и риски технологий искусственного интеллекта, таких как GPT-4 от OpenAI, особенно в политической сфере. По мнению столбец В прошлом году я писал для The Guardian, что по мере того, как все больше денег поступает в ИИ, гонка вооружений в области ИИ будет не только ограничиваться компаниями, но и усилиться между странами – в то время как оспаривание политики в области ИИ станет более трудной.

Вопрос и ответ

Короче говоря, как вы начали заниматься искусственным интеллектом? Что привлекло вас в этой сфере?

Мое начало было в области новых технологий, имеющих значение для национальной безопасности. В то время, когда был развернут беспилотник «Хищник», я был офицером ВВС и занимался современными радиолокационными и спутниковыми системами. Я проработал в этой области четыре года, поэтому было естественно, что, будучи доктором философии, мне было интересно изучить влияние новых технологий на национальную безопасность. Я впервые написал о дронах, и дискуссия вокруг дронов сдвинулась к вопросам автономии, которая, конечно же, предполагает искусственный интеллект.

В 2018 году я был на семинаре по искусственному интеллекту в исследовательском центре в Вашингтоне, и OpenAI представила презентацию о новой возможности GPT-2, которую они разрабатывали. Мы только что прошли через выборы 2016 года и вмешательство в выборы за рубежом, которое было относительно легко обнаружить из-за таких мелочей, как грамматические ошибки, сделанные людьми, для которых английский язык не является родным, — ошибки, которые не были удивительными, учитывая, что вмешательство исходило от Агентство интернет-исследований, поддерживаемое Россией. Когда OpenAI сделал эту презентацию, меня сразу же обеспокоила возможность генерировать достоверную дезинформацию в большом масштабе, а затем, посредством микротаргетинга, манипулировать психологией американских избирателей способами, гораздо более эффективными, чем это было возможно, когда эти люди пытались писать контент вручную. , как и обычно. Размер всегда является проблемой.

READ  Некоторые кишечные микробы могут предупредить о болезни Альцгеймера задолго до появления первых симптомов

Я обратился к OpenAI и стал одним из первых научных сотрудников, участвовавших в их стратегии поэтапного выпуска. Мое собственное исследование было направлено на расследование потенциального случая злоупотреблений — заслуживают ли доверия GPT-2, а затем и GPT-3, как генераторы политического контента. В серии экспериментов я оценил, сочтет ли аудитория этот контент заслуживающим доверия, но затем я также провел большой полевой эксперимент, в ходе которого я создал «сообщения избирателям», которые я случайным образом перемежал реальными сообщениями избирателей, чтобы увидеть, отреагируют ли законодатели. те же ставки для сообщений избирательным округам. И посмотрим, можно ли их обмануть – и смогут ли злоумышленники сформировать законодательную повестку дня посредством широкомасштабной кампании по рассылке писем.

Эти вопросы затрагивают суть того, что значит быть суверенной демократией, и недвусмысленно делается вывод о том, что эти новые технологии представляют собой новые угрозы для нашей демократии.

Какой работой вы больше всего гордитесь (в области искусственного интеллекта)?

Я очень горжусь своим полевым опытом. Никто не сделал ничего даже отдаленно похожего, и мы были первыми, кто продемонстрировал разрушительный потенциал в контексте законодательной повестки дня.

Но я также горжусь инструментами, которые, к сожалению, никогда не выпускал на рынок. Я работал с несколькими студентами-компьютерщиками в Корнелле над разработкой приложения, которое могло бы обрабатывать электронные письма от законодательных органов и помогать им осмысленно отвечать избирателям. Мы работали над этим до появления ChatGPT и использовали ИИ для приема большого объема электронных писем и оказания помощи ИИ сотрудникам, испытывающим нехватку времени, в общении с людьми в их районе или штате. Я думал, что эти инструменты важны из-за недовольства избирателей политикой, а также из-за растущих требований к времени законодателей. Разработка искусственного интеллекта такими способами, которые привлекли внимание общественности, казалась ценным вкладом и интересной междисциплинарной работой для политологов и компьютерщиков. Мы провели ряд экспериментов, чтобы оценить поведенческие вопросы о том, как люди будут относиться к тому, что ИИ помогает им реагировать, и пришли к выводу, что, возможно, общество не готово к чему-то подобному. Но через несколько месяцев после того, как мы закрылись, на сцену вышел ChatGPT, и ИИ стал настолько повсеместным, что я почти задаюсь вопросом, как мы могли беспокоиться о том, было ли это этически сомнительным или законным. Но я по-прежнему считаю правильным задавать сложные этические вопросы о законном варианте использования.

READ  Лунные вулканы существовали на 8-9 миллионов лет раньше, чем мы думали: ученые

Как вы преодолеваете проблемы технологической индустрии, в которой доминируют мужчины, и, как следствие, индустрии искусственного интеллекта, в которой доминируют мужчины?

Как исследователь, я не ощущал этих проблем остро. Я только что был в районе залива, и все ребята буквально выступали в лифте отеля, и это клише, которое мне показалось жутким. Я рекомендую найти наставников (мужчин и женщин), развивать навыки и позволить этим навыкам говорить сами за себя, преодолевать трудности и сохранять устойчивость.

Какой совет вы бы дали женщинам, которые хотят заняться искусственным интеллектом?

Я думаю, что у женщин так много возможностей – им нужно развивать навыки и уверенность, и они будут преуспевать.

Каковы наиболее актуальные проблемы, с которыми сталкивается ИИ по мере его развития?

Меня беспокоит то, что сообщество ИИ разработало слишком много исследовательских инициатив, сосредоточенных на таких вещах, как «суперсогласование», что скрывает более глубокие — или действительно обоснованные — вопросы о том, чьи ценности или с какими ценностями мы пытаемся согласовать ИИ. Проблемное внедрение Google Gemini продемонстрировало карикатуру, которая может возникнуть в результате соответствия узкому набору ценностей разработчиков способами, которые на самом деле привели к (почти) смехотворным историческим неточностям в их результатах. Я думаю, что ценности этих разработчиков были благими намерениями, но они выявили тот факт, что эти большие языковые модели были запрограммированы с определенным набором ценностей, которые будут формировать то, как люди думают о политике, социальных отношениях и различных вещах. деликатные темы. Эти проблемы не являются экзистенциальными рисками, но они создают структуру общества и дают огромную власть крупным компаниям (таким как OpenAI, Google, Meta и т. д.), ответственным за эти модели.

READ  Марсианский зонд собирает образцы, чтобы определить, есть ли жизнь на Красной планете

О каких проблемах следует знать пользователям ИИ?

Поскольку ИИ становится все более повсеместным, я считаю, что мы вошли в мир принципа «доверяй, но проверяй». Нигилистично не верить ничему, но существует много контента, созданного искусственным интеллектом, и пользователям действительно нужно быть осторожными с тем, чему они инстинктивно доверяют. Прежде чем предполагать, что все верно, рекомендуется поискать альтернативные источники для проверки информации. Но я думаю, что мы уже узнали это через социальные сети и дезинформацию.

Каков наилучший способ ответственного создания ИИ?

Недавно я написал кусок Для «Бюллетеня ученых-атомщиков», который начинал с освещения ядерного оружия, но адаптировался к прорывным технологиям, таким как искусственный интеллект. Я думал о том, как ученые могут стать лучшими управителями общества, и захотел объединить некоторые исторические случаи, которые я исследовал, в книжный проект. Я не только описываю ряд шагов, которые выступаю за ответственную разработку, но также говорю о том, почему некоторые вопросы, которые задают разработчики ИИ, неверны, неполны или вводят в заблуждение.