На конференции The Wall Street Journal «Future of Everything» Барри Диллер — сооснователь Fox Broadcasting, председатель совета директоров IAC и Expedia Group — дал, пожалуй, один из самых откровенных публичных комментариев о природе рисков, связанных с развитием ИИ. Отвечая на вопрос о том, стоит ли доверять Сэму Альтману в вопросе безопасного развития технологии, Диллер сказал: доверие здесь попросту нерелевантно.
Альтман в последние годы неоднократно становился объектом критики — часть бывших сотрудников и членов совета директоров OpenAI обвиняли его в манипулятивности и непоследовательности. Диллер, лично знакомый с главой OpenAI, эти обвинения отверг, назвав его «порядочным человеком с хорошими ценностями» и искренним в своих намерениях. Однако тут же сместил фокус: личная порядочность руководителей ИИ-компаний — не тот вопрос, которым стоит задаваться.
Центральный тезис Диллера состоит в том, что разработчики ИИ сами не контролируют и не предвидят последствий своей работы. «Они сами испытывают чувство удивления», — сказал он, имея в виду людей, непосредственно создающих системы. Это не риторическая фигура: речь идёт о системном свойстве современных больших языковых моделей и других архитектур — их поведение в сложных сценариях зачастую оказывается неожиданным даже для авторов. Именно поэтому вопрос «можно ли доверять X» Диллер считает ложным: проблема не в намерениях, а в принципиальной непредсказуемости результата.
По словам Диллера, даже создатели ИИ-систем не знают, к каким последствиям приведёт их работа — они сами испытывают «чувство удивления».

AGI — искусственный общий интеллект — это гипотетическая система, способная выполнять любые когнитивные задачи на уровне человека или выше. Сегодня ни одна из существующих моделей этому критерию не соответствует: GPT-4o, Claude 3.5 Sonnet, Gemini 2.5 Pro — всё это узкоспециализированные системы, хотя и с широким диапазоном применений. Тем не менее скорость прогресса заставляет исследователей и инвесторов всерьёз обсуждать временны́е горизонты появления AGI — от нескольких лет до десятилетий, в зависимости от определения и методологии оценки.
Диллер сформулировал ключевой риск жёстко: если люди не успеют выработать «защитные барьеры» до появления AGI, сам AGI установит правила за них. «И как только это произойдёт, как только вы это выпустите — пути назад не будет», — сказал он. Это перекликается с позицией части исследователей в области безопасности ИИ, которые настаивают на том, что alignment — согласование целей системы с человеческими ценностями — нужно решать до, а не после достижения высокого уровня автономии.
Примечательно, что Диллер при этом дистанцировался от финансовой стороны вопроса: он не инвестирует в ИИ и заявил, что ему безразлично, окупятся ли колоссальные вложения в отрасль. Его позиция — позиция стороннего наблюдателя, убеждённого, что технологический прогресс в любом случае продолжится, а вопрос в том, успеет ли общество выстроить институциональные механизмы контроля.



