Исследователь безопасности обеспокоен тем, что ИИ 'очень рискованная авантюра'
Бывший исследователь безопасности OpenAI называет темпы развития искусственного интеллекта 'ужасающими'. Стивен Адлер выразил обеспокоенность тем, что индустрия ИИ делает «очень рискованную ставку» и ставит под угрозу будущее всего человечества.
Бывший исследователь безопасности OpenAI говорит, что он «в ужасе» от темпов развития ИИ, и предупреждает, что отрасль делает «очень рискованную ставку» на эту технологию.
Стивен Адлер выразил обеспокоенность по поводу компаний, которые стремятся быстро разрабатывать искусственный интеллект общего назначения (AGI), теоретический термин для систем, которые соответствуют или превосходят людей в любой интеллектуальной задаче.
Адлер, который покинул OpenAI в ноябре, написал в серии постов на X, что он «действительно наслаждался» своим временем в американской компании и будет скучать «по многим ее аспектам». Однако он сказал, что технологии развиваются так быстро, что это ставит под сомнение будущее человечества, сообщает The Guardian.
«Меня ужасают темпы развития ИИ в наши дни», — сказал он. «Когда я думаю о том, где я буду растить свою семью в будущем или сколько я буду копить на пенсию, я не могу не задаться вопросом, доживет ли человечество до этого момента.?»стр> <стр>Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека, что может иметь катастрофические последствия. Другие, как Ян Лекун, главный специалист по искусственному интеллекту Meta, преуменьшают экзистенциальную угрозу, говоря, что ИИ «на самом деле может спасти человечество от вымирания».
Согласно профилю Адлера в социальных сетях, за четыре десятилетия своей карьеры в OpenAI он руководил исследованиями, связанными с безопасностью, для «ранних запусков продуктов» и «более продвинутых систем ИИ», отмечает The Guardian.
Говоря о разработке «сильного искусственного интеллекта» (AGI), основной цели OpenAI, Адлер добавил: «Гонка AGI — это очень рискованная авантюра с огромными недостатками». Адлер сказал, что ни одна исследовательская лаборатория не имеет решения для настройки ИИ — процесса обеспечения соответствия систем набору человеческих ценностей — и что отрасль может двигаться слишком быстро, чтобы найти его: «Чем быстрее мы движемся, тем меньше вероятность, что кто-то разберется вовремя».
Сообщения Адлера появились после того, как DeepSeek, китайская компания, которая также стремится разработать AGI, потрясла технологическую индустрию США, представив модель, которая конкурирует с технологией OpenAI, несмотря на то, что, по-видимому, потратила меньше ресурсов на ее разработку.
Предупреждая, что отрасль, похоже, «застряла в очень плохом равновесии», Адлер сказал, что необходимы «реальные правила безопасности»: «Даже если лаборатория действительно хочет ответственно разрабатывать AGI, другие все равно могут сократить свое время, чтобы наверстать упущенное, что может привести к катастрофическим последствия.”