Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Крупнейшие компании в сфере искусственного интеллекта, базирующиеся в Калифорнии, выступили против нового законопроекта, принятого сенатом этого штата. Данный законопроект, который должен быть рассмотрен на генеральной ассамблее в августе, вводит жёсткие требования к обеспечению безопасности систем ИИ.
Кремниевая долина переживает серьёзный кризис в связи с предлагаемым законопроектом о безопасности искусственного интеллекта в Калифорнии. Крупнейшие игроки индустрии, включая OpenAI, Anthropic, Cohere и Meta✴, выступают против строгих норм безопасности, которые могут ограничить развитие их передовых моделей ИИ, сообщает Financial Times.
Законопроект, уже одобренный сенатом штата и ожидающий голосования в ассамблее в августе, требует от компаний гарантировать, что они не будут создавать модели ИИ с опасными возможностями, такими как разработка биологического или ядерного оружия. Кроме того, разработчики должны будут регулярно проходить проверки безопасности и внедрить «аварийный выключатель» для экстренного отключения своих моделей.
Однако многие представители технологического сектора считают, что законопроект накладывает чрезмерные ограничения и финансовое бремя на компании, особенно на небольшие стартапы. Эндрю Нг (Andrew Ng), известный исследователь в области ИИ, заявил, что эти правила «подавляют инновации» и «разжигают страх у тех, кто осмеливается внедрять новые технологии». Особенно острой критике подвергается потенциальное негативное влияние законопроекта на модели ИИ с открытым исходным кодом. Разработчики опасаются, что они могут быть привлечены к ответственности за действия злоумышленников, манипулирующих их открытыми моделями. Арун Рао (Arun Rao) из Meta✴ даже заявил, что законопроект «положит конец открытому исходному коду в Калифорнии».
Инициатором законопроекта выступил Центр безопасности искусственного интеллекта (CAIS), некоммерческая организация, связанная с движением эффективного альтруизма. Сенатор Скотт Винер (Scott Wiener), автор законопроекта, настаивает на том, что его цель — обеспечить успешное развитие ИИ при одновременном учёте рисков безопасности. Он планирует внести поправки, уточняющие сферу применения закона и снижающие потенциальную ответственность разработчиков открытых моделей.
На фоне глобальных усилий по регулированию стремительно развивающейся отрасли ИИ, калифорнийский законопроект вызывает серьёзные опасения в Кремниевой долине. Некоторые инвесторы уже получают запросы от основателей стартапов, рассматривающих возможность переезда из штата. Эксперты призывают к более целенаправленному подходу в законодательстве, ориентированному на конкретные варианты использования ИИ, а не на общее регулирование разработки моделей.
Скандал вокруг калифорнийского законопроекта отражает нарастающее напряжение между стремлением обеспечить безопасность передовых технологий и опасениями, что чрезмерное регулирование искусственного интеллекта может затормозить инновации. По мере того, как законодатели пытаются найти баланс, исход этой битвы может иметь далеко идущие последствия для будущего ИИ не только в Калифорнии, но и во всём мире.
Источник: