Сообщается, что OpenAI отправила ответы на приглашения на запуск GPT-4o еще до начала испытаний, оказывая давление на команду безопасности, чтобы ускорить процесс менее чем за одну неделю.

Сообщается, что OpenAI отправила ответы на приглашения на запуск GPT-4o еще до начала испытаний, оказывая давление на команду безопасности, чтобы ускорить процесс менее чем за одну неделю.

Что тебе нужно знать

  • Запуск OpenAI GPT-4o, похоже, был поспешным, и у команды безопасности осталось мало времени для тестирования модели.
  • Источники сообщили, что OpenAI разослала приглашения на вечеринку по случаю запуска продукта до того, как команда безопасности провела испытания.
  • Представитель OpenAI признает, что запуск стал стрессом для команды по безопасности, но настаивает, что фирма не срезала углы при поставке продукта. 

Как заинтересованный наблюдатель и бывший поклонник OpenAI, я с большим интересом слежу за их разработками уже довольно давно. Однако недавние отчеты заставили меня почувствовать беспокойство по поводу приоритетов компании и ее приверженности безопасности.


🎮🔥 Привет, геймеры! Устали от скучных чатов? Тогда вам сюда! Добро пожаловать в наш легендарный телеграм-канал по Fortnite, где даже самые лузеры могут почувствовать себя нубом! 😜 Вперед, на победы и эпичные фейлы! Присоединяйтесь, если осмелитесь 👇

Fortnite Telegram



В течение последних нескольких месяцев OpenAI подвергалась критике со стороны бывших сотрудников, которые утверждают, что компания уделяет больше внимания созданию привлекательных продуктов, а не внедрению надежных процедур безопасности. К сожалению, похоже, что OpenAI не сможет опровергнуть эти обвинения в ближайшем будущем.

По информации The Washington Post, некоторые сотрудники OpenAI разделяют опасения, что компания уделяет больше внимания быстрому выполнению задач, чем обеспечению тщательности. Источники указывают, что это давление особенно ощущалось командой безопасности OpenAI, когда они работали над разработкой нового протокола испытаний для GPT-40.

Для передовых систем искусственного интеллекта, таких как GPT-4 от OpenAI, крайне важно пройти всестороннее тестирование, чтобы выявить потенциальные слабости, которыми злоумышленники могут воспользоваться, причинив вред. Однако, согласно сообщениям, руководство OpenAI оказало давление на команду безопасности, чтобы она ускорила новую процедуру тестирования, чтобы придерживаться строгого графика майского запуска GPT-4 Omni.

Инсайдер сообщил, что OpenAI планировала отпраздновать запуск до того, как команда безопасности проведет необходимые испытания, как указано в отчете. Проще говоря, они организовали вечеринку перед выпуском подтверждения безопасности продукта. По сути, это указывает на недосмотр или ошибку в процессе.

По словам представителя OpenAI Линдси Хелд, выпуск GPT-4 стал непростым испытанием для команды безопасности, но она заверила, что компания не нарушила свои строгие протоколы безопасности в ходе этого процесса. Прежде чем сделать его общедоступным, GPT-4 прошел тщательное тестирование OpenAI.

Как энтузиаст технологий OpenAI, я могу подтвердить, что заявление Хелда было подтверждено одним из представителей нашей группы по обеспечению готовности. На этапе тестирования мы выполнили все наши нормативные требования. Однако я должен признать, что у нас были сжатые сроки, и подход Omni был не самым эффективным способом проведения испытаний. Теперь OpenAI пересматривает весь наш процесс, чтобы найти более подходящий метод.

Безопасность кажется для OpenAI второстепенной задачей

Сообщается, что OpenAI отправила ответы на приглашения на запуск GPT-4o еще до начала испытаний, оказывая давление на команду безопасности, чтобы ускорить процесс менее чем за одну неделю.

В другом документе предыдущий сотрудник OpenAI по имени Уильям Сондерс заявил, что причина его ухода из организации связана с опасениями по поводу того, что она напоминает обреченный Титаник ИИ. Он объяснил: «Несмотря на свою амбициозную цель произвести революцию в мире, они, похоже, больше сосредоточены на том, чтобы действовать как типичная корпорация, когда представляют новые проекты. Эта непоследовательность — то, что меня больше всего смущает».

Ранее бывший руководитель отдела согласования OpenAI, по словам Сондерса, выражал аналогичные опасения. Он рассказал, что у него возникли разногласия с руководством компании по поводу их подходов к принятию решений и приоритетов в отношении моделей следующего поколения, мер безопасности, систем мониторинга, подготовки к различным сценариям, протоколов безопасности, состязательной устойчивости и других важных вопросов. Сосредоточение OpenAI на разработке привлекательных продуктов вместо приоритета безопасности привело к массовому оттоку команды по безопасности из организации.

Конечная цель OpenAI — разработка общего искусственного интеллекта (AGI). Однако достижение этой цели сопряжено с серьезными проблемами. С одной стороны, системы искусственного интеллекта требуют огромных вычислительных ресурсов, что создает финансовую нагрузку на OpenAI. Например, эксплуатация одного только ChatGPT стоит до 700 000 долларов в день. Кроме того, эти передовые системы искусственного интеллекта потребляют большое количество воды и электроэнергии.

Напротив, хотя некоторые опасаются, что ИИ может превзойти человеческий интеллект, что приведет к сокращению рабочих мест и даже потенциальному вреду человечеству, недавняя оценка инсайдера OpenAI и исследователя ИИ оценивает вероятность такого результата в 99,9%.

Смотрите также

2024-07-15 14:39