Эксперт по искусственному интеллекту Майлз Брендедж, ранее занимавшийся разработкой политики в OpenAI, публично обвинил компанию в искажении истории создания модели GPT-2 и недостаточном внимании к вопросам безопасности. Поводом стала публикация документа OpenAI, в котором компания представила стратегию «поэтапного» подхода к созданию общего искусственного интеллекта (AGI).
В материале утверждается, что постепенное развёртывание технологий позволит выявлять угрозы на каждом этапе, а разработка GPT-2 описывается как «прерывистая» и изначально скрытая из-за «опасений вредоносного использования».
Брендедж, участвовавший в релизе GPT-2, раскритиковал эту позицию, заявив, что OpenAI ещё пять лет назад применяла итеративный подход.
«Выпуск GPT-2 полностью соответствовал текущей философии компании: модель распространялась поэтапно, с публикацией уроков безопасности на каждом шаге. Тогда эксперты хвалили нас за осторожность», — написал он в соцсети X.
По его мнению, нынешний документ переписывает прошлое, создавая ложное впечатление, что OpenAI только сейчас переходит к продуманной стратегии. Иллюстрация: Pexels Особое возмущение экс-сотрудника вызвал раздел документа, посвящённый оценке рисков.
В нём, как отметил Брендедж, компания предлагает действовать только при наличии «неопровержимых доказательств неминуемой опасности», что, по его словам, формирует опасный прецедент: «Это подход, при котором продолжается выпуск систем, пока кто-то не докажет, что они точно взорвут мир.
Для продвинутых ИИ такая логика неприемлема». Критика прозвучала на фоне растущих претензий к OpenAI со стороны экспертного сообщества.
Ранее компанию обвиняли в недостаточной прозрачности разработки, использовании конфиденциальных данных и приоритезации «блестящих продуктов» над безопасностью. Например, ChatGPT и аналогичные инструменты неоднократно распространяли опасные рекомендации — от советов есть камни до инструкций по мошенничеству.
Кроме того, нейросети всё чаще становятся инструментом дезинформации и манипуляций. Несмотря на заявленные в документе меры, такие как партнёрство с независимыми аудиторами и создание механизмов обратной связи, скептики указывают на противоречия в логике OpenAI.
Компания продолжает ускоренное внедрение ИИ-продуктов, тогда как её подход к оценке угроз остаётся реактивным, а не превентивным.
Как подчеркнул Брендедж, «безопасность требует активного поиска уязвимостей, а не их игнорирования до тех пор, пока они не станут очевидными для всех». В условиях растущего регулирования отрасли подобные конфликты могут повлиять не только на репутацию организации, но и на развитие технологий в целом.
Рубрика: Технологии. Читать весь текст на www.ixbt.com.