16 ноября, 2024

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Илон Маск и эксперты говорят, что развитие искусственного интеллекта следует немедленно приостановить |  Новости науки и техники

Илон Маск и эксперты говорят, что развитие искусственного интеллекта следует немедленно приостановить | Новости науки и техники

В письме, подписанном более чем 1000 человек, содержится предупреждение о потенциальных рисках для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

к Сэмюэл Осборн, репортер новостей @сотрудник


Среда, 29 марта 2023 г., 17:49, Великобритания

Илон Маск и группа экспертов по ИИ призвали прекратить обучение мощных систем ИИ из-за потенциальных рисков для общества и человечества.

В письме, подготовленном некоммерческой организацией Future of Life Institute и подписанном более чем 1000 человек, содержится предупреждение о потенциальных рисках для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

В письме предупреждается, что «системы искусственного интеллекта с человеческим конкурентным интеллектом могут представлять серьезную опасность для общества и человечества».

«Сильные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными и что их риски будут управляемыми».

Он призвал на шесть месяцев остановить «серьезную гонку» по разработке систем, более мощных, чем OpenAI. Недавно запущенный GPT-4.

Если такой мораторий не может быть введен быстро, в письме говорится, что правительства должны вмешаться и объявить мораторий.

«Лаборатория искусственного интеллекта и независимые эксперты должны использовать эту паузу для разработки и внедрения набора совместных протоколов безопасности для проектирования и разработки передового ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами», — говорится в письме.

«Эти протоколы должны обеспечивать безопасность систем, которых они придерживаются, вне всякого разумного сомнения».

Читать далее:
Некоторые пользователи Twitter начинают пропускать синие галочки со следующего месяца
Ведущий Sky News теперь может читать вам наши статьи — вот как

READ  «Мы подадим на них в суд»: Пэт МакДона клянется опровергнуть слухи об отеле

Письмо также подписали соучредитель Apple Стив Возняк, Джошуа Бениго, которого часто называют одним из «крестных отцов искусственного интеллекта», и Стюарт Рассел, руководитель исследований в этой области, а также исследователи DeepMind, принадлежащей Alphabet. .

По данным Реестра прозрачности ЕС, Институт будущего жизни финансируется в основном Фондом Маска, лондонской группой эффективного альтруизма Founders Pledge и Фондом сообщества Силиконовой долины.

Маск открыто высказывался о своих опасениях по поводу ИИ. Его автопроизводитель Tesla использует искусственный интеллект для своей системы автопилота.

С момента своего выпуска в прошлом году поддерживаемый Microsoft OpenAI ChatGPT призвал конкурентов ускорить разработку аналогичных больших языковых моделей и призвал компании интегрировать генеративные модели ИИ в свои продукты.

Великобритания представляет предложения по «легкому» регулированию ИИ

Об этом сообщает правительство Великобритании. Предложения по «облегченной» нормативно-правовой базе об искусственном интеллекте.

Это ограниченная версия истории, поэтому, к сожалению, этот контент недоступен.

Разблокировать полную версию

Подход правительства, изложенный в программном документе, заключается в разделении ответственности за управление ИИ между регуляторами прав человека, здоровья и безопасности и конкуренции, а не созданием нового органа, занимающегося этой технологией.

Между тем, ранее на этой неделе Европол присоединился к целому ряду этических и юридических опасений по поводу передового искусственного интеллекта, такого как ChatGPT, предупредив о возможности злоупотребления системой при попытках фишинга, дезинформации и киберпреступности.