21 января, 2025

hleb

Находите все последние статьи и смотрите телешоу, репортажи и подкасты, связанные с Россией.

Илон Маск и эксперты говорят, что развитие искусственного интеллекта следует немедленно приостановить |  Новости науки и техники

Илон Маск и эксперты говорят, что развитие искусственного интеллекта следует немедленно приостановить | Новости науки и техники

В письме, подписанном более чем 1000 человек, содержится предупреждение о потенциальных рисках для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

к Сэмюэл Осборн, репортер новостей @сотрудник


Среда, 29 марта 2023 г., 17:49, Великобритания

Илон Маск и группа экспертов по ИИ призвали прекратить обучение мощных систем ИИ из-за потенциальных рисков для общества и человечества.

В письме, подготовленном некоммерческой организацией Future of Life Institute и подписанном более чем 1000 человек, содержится предупреждение о потенциальных рисках для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

В письме предупреждается, что «системы искусственного интеллекта с человеческим конкурентным интеллектом могут представлять серьезную опасность для общества и человечества».

«Сильные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными и что их риски будут управляемыми».

Он призвал на шесть месяцев остановить «серьезную гонку» по разработке систем, более мощных, чем OpenAI. Недавно запущенный GPT-4.

Если такой мораторий не может быть введен быстро, в письме говорится, что правительства должны вмешаться и объявить мораторий.

«Лаборатория искусственного интеллекта и независимые эксперты должны использовать эту паузу для разработки и внедрения набора совместных протоколов безопасности для проектирования и разработки передового ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами», — говорится в письме.

«Эти протоколы должны обеспечивать безопасность систем, которых они придерживаются, вне всякого разумного сомнения».

Читать далее:
Некоторые пользователи Twitter начинают пропускать синие галочки со следующего месяца
Ведущий Sky News теперь может читать вам наши статьи — вот как

READ  Тысячи людей пострадали от постепенного отказа от популярных планов медицинского страхования, чтобы «упростить» предложения.

Письмо также подписали соучредитель Apple Стив Возняк, Джошуа Бениго, которого часто называют одним из «крестных отцов искусственного интеллекта», и Стюарт Рассел, руководитель исследований в этой области, а также исследователи DeepMind, принадлежащей Alphabet. .

По данным Реестра прозрачности ЕС, Институт будущего жизни финансируется в основном Фондом Маска, лондонской группой эффективного альтруизма Founders Pledge и Фондом сообщества Силиконовой долины.

Маск открыто высказывался о своих опасениях по поводу ИИ. Его автопроизводитель Tesla использует искусственный интеллект для своей системы автопилота.

С момента своего выпуска в прошлом году поддерживаемый Microsoft OpenAI ChatGPT призвал конкурентов ускорить разработку аналогичных больших языковых моделей и призвал компании интегрировать генеративные модели ИИ в свои продукты.

Великобритания представляет предложения по «легкому» регулированию ИИ

Об этом сообщает правительство Великобритании. Предложения по «облегченной» нормативно-правовой базе об искусственном интеллекте.

Это ограниченная версия истории, поэтому, к сожалению, этот контент недоступен.

Разблокировать полную версию

Подход правительства, изложенный в программном документе, заключается в разделении ответственности за управление ИИ между регуляторами прав человека, здоровья и безопасности и конкуренции, а не созданием нового органа, занимающегося этой технологией.

Между тем, ранее на этой неделе Европол присоединился к целому ряду этических и юридических опасений по поводу передового искусственного интеллекта, такого как ChatGPT, предупредив о возможности злоупотребления системой при попытках фишинга, дезинформации и киберпреступности.