banner
Дом / Блог / Эксперты по искусственному интеллекту отреклись от Маска
Блог

Эксперты по искусственному интеллекту отреклись от Маска

Nov 27, 2023Nov 27, 2023

(История от 31 марта была исправлена, чтобы показать, что Фонд Маска является основным, а не основным донором FLI, в пункте 6)

Мартин Коултер

ЛОНДОН (Рейтер) - Четыре эксперта по искусственному интеллекту выразили обеспокоенность после того, как их работа была процитирована в открытом письме, подписанном Илоном Маском, с требованием срочной паузы в исследованиях.

В письме, датированном 22 марта и получившем к пятнице более 1800 подписей, содержится призыв к шестимесячному перерыву в разработке систем, «более мощных», чем новый GPT-4 от OpenAI, поддерживаемый Microsoft, который может вести человеческий разговор. , сочинять песни и резюмировать объемные документы.

С тех пор как в прошлом году был выпущен предшественник GPT-4, ChatGPT, конкурирующие компании поспешили запустить аналогичные продукты.

В открытом письме говорится, что системы искусственного интеллекта с «человеческо-конкурентным интеллектом» представляют серьезную угрозу для человечества, и цитируются 12 исследований экспертов, включая университетских ученых, а также нынешних и бывших сотрудников OpenAI, Google и ее дочерней компании DeepMind.

С тех пор группы гражданского общества в США и ЕС потребовали от законодателей ограничить исследования OpenAI. OpenAI не сразу ответила на запросы о комментариях.

Критики обвинили Институт будущего жизни (FLI), организацию, стоящую за письмом, в том, что они отдают предпочтение воображаемым апокалиптическим сценариям над более насущными опасениями по поводу ИИ, такими как расистские или сексистские предубеждения. Фонд Маска является крупным донором FLI.

Среди цитируемых исследований была известная статья «Об опасностях стохастических попугаев», соавтором которой является Маргарет Митчелл, которая ранее курировала этические исследования ИИ в Google.

Митчелл, ныне главный специалист по этике в AI-фирме Hugging Face, раскритиковал письмо, заявив агентству Reuters, что неясно, что считать «более мощным, чем GPT4».

«Рассматривая множество сомнительных идей как данность, письмо утверждает набор приоритетов и повествование об искусственном интеллекте, которое приносит пользу сторонникам FLI», — сказала она. «Игнорировать активный вред прямо сейчас — это привилегия, которой у некоторых из нас нет».

Ее соавторы Тимнит Гебру и Эмили М. Бендер раскритиковали письмо в Твиттере, причем последний назвал некоторые из его утверждений «безрассудными».

Президент FLI Макс Тегмарк заявил Reuters, что кампания не является попыткой помешать корпоративному преимуществу OpenAI.

«Это довольно забавно. Я видел, как люди говорили: «Илон Маск пытается замедлить конкуренцию», — сказал он, добавив, что Маск не играл никакой роли в составлении письма. «Речь идет не об одной компании».

РИСКИ СЕЙЧАС

Шири Дори-Хакоэн, доцент Университета Коннектикута, также не согласилась с упоминанием ее работы в письме. В прошлом году она стала соавтором исследовательской работы, в которой утверждается, что широкое использование ИИ уже представляет серьезные риски.

Ее исследование показало, что современное использование систем искусственного интеллекта может повлиять на принятие решений в отношении изменения климата, ядерной войны и других экзистенциальных угроз.

Она сказала Reuters: «ИИ не обязательно должен достигать интеллекта человеческого уровня, чтобы усугубить эти риски».

«Есть несуществующие риски, которые действительно очень важны, но не получают такого же внимания на уровне Голливуда».

На просьбу прокомментировать критику Тегмарк из FLI сказал, что следует серьезно относиться как к краткосрочным, так и к долгосрочным рискам ИИ.

«Если мы цитируем кого-то, это просто означает, что мы заявляем, что они одобряют это предложение. Это не значит, что они одобряют письмо, или мы одобряем все, что они думают», — сказал он агентству Reuters.

Дэн Хендрикс, директор Калифорнийского Центра безопасности искусственного интеллекта, который также упоминался в письме, поддержал его содержание, заявив агентству Reuters, что было бы разумно рассмотреть события «черного лебедя» — те, которые кажутся маловероятными, но будут иметь разрушительные последствия.

В открытом письме также предупреждается, что инструменты генеративного искусственного интеллекта могут быть использованы для наводнения Интернета «пропагандой и ложью».

Дори-Хакоэн сказал, что для Маска было «довольно выгодно» подписать его, сославшись на рост дезинформации в Твиттере после приобретения им платформы, задокументированный группой гражданского общества Common Cause и другими.