Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли, появился в зале суда в роли, которая сама по себе парадоксальна: он должен был обосновать претензии Илона Маска к OpenAI, апеллируя к опасности ИИ — той самой опасности, о которой Маск предупреждает публично, одновременно управляя собственной ИИ-лабораторией xAI.

Адвокаты Маска строят дело на том, что OpenAI изначально создавалась как некоммерческая организация с миссией обеспечить безопасное развитие ИИ — в противовес Google DeepMind. В подтверждение они цитируют старые письма и заявления основателей о необходимости «общественно ориентированного противовеса» крупным корпорациям. Рассел должен был дать суду технический фундамент: объяснить, что такое ИИ, почему он опасен и почему организационная форма компании, которая его разрабатывает, имеет значение.

Перед присяжными и судьёй Ивонн Гонсалес Роджерс Рассел перечислил несколько категорий рисков. Первая — угрозы кибербезопасности. Вторая — проблема рассогласования: ситуация, когда система ИИ преследует цели, которые расходятся с намерениями создателей. Третья — структурная: гонка за AGI устроена по принципу «победитель получает всё», и это само по себе создаёт стимулы жертвовать безопасностью ради скорости. Рассел подчеркнул, что между стремлением к AGI и соблюдением мер безопасности существует фундаментальное противоречие.

В марте 2023 года Рассел подписал открытое письмо с призывом к шестимесячной паузе в исследованиях ИИ — его подписал и сам Маск, параллельно запуская xAI.

Image Credits:Sameer Al-DOUMY / AFP / Getty Images
Image Credits:Sameer Al-DOUMY / AFP / Getty Images · Источник: TechCrunch AI

Показательна биография самого эксперта в контексте этого дела. В марте 2023 года Рассел подписал открытое письмо с призывом ввести шестимесячный мораторий на масштабные ИИ-исследования. Маск тоже поставил под ним подпись — в тот самый момент, когда готовил к запуску xAI. Это противоречие адвокаты OpenAI использовали на перекрёстном допросе: они добились от Рассела признания, что он не изучал корпоративную структуру OpenAI и не оценивал её конкретные политики безопасности. Тем самым они поставили под сомнение практическую ценность его показаний для данного дела.

Судья ограничила часть показаний Рассела об экзистенциальных угрозах ИИ — после возражений со стороны OpenAI они не прозвучали в открытом суде. Между тем именно эта тема является центральной в публичной позиции учёного: он давно критикует динамику гонки вооружений, которую создают ведущие лаборатории мира, соревнующиеся за первенство в достижении AGI, и призывает правительства жёстче регулировать отрасль.

За пределами зала суда та же логика воспроизводится на уровне государственной политики. Сенатор Берни Сандерс продвигает законопроект о моратории на строительство дата-центров, ссылаясь на предупреждения Маска, Сэма Альтмана и нобелевского лауреата Джеффри Хинтона. Критики, в частности представитель торговой организации Center for Data Innovation Ходан Омаар, указывают на избирательность такого подхода: те же люди одновременно говорят и о рисках, и о преимуществах ИИ, и непонятно, почему публика должна принимать только одну часть их аргументов.

В этом и состоит центральная коллизия процесса. Обе стороны просят суд принять всерьёз часть высказываний Альтмана и Маска — и проигнорировать другую часть. Присяжным предстоит решить, насколько страх перед AGI, декларируемый людьми, которые сами строят AGI, является искренним основанием для правовых требований.