OpenAI предоставит Институту Безопасности США ранний доступ к новым моделям

Photo by Levart_Photographer on Unsplash

OpenAI предоставит Институту Безопасности США ранний доступ к новым моделям

Время для прочтения: 2 мин.

  • Andrea Miliani

    Автор: Andrea Miliani Технический писатель

  • Команда локализации и перевода

    Перевод выполнен: Команда локализации и перевода Услуги локализации и перевода

Сэм Альтман, генеральный директор OpenAI, объявил сегодня на X, что компания предоставит ранний доступ к предстоящей базовой модели Институту безопасности искусственного интеллекта США.

«Как мы говорили прошлым июлем, мы обязуемся выделять по крайней мере 20% вычислительных ресурсов на усилия по безопасности по всей компании», — написал Альтман, «Наша команда работает с Институтом безопасности AI США над соглашением, согласно которому мы предоставим ранний доступ к нашей следующей основной модели, чтобы мы могли совместно продвигать науку оценок AI».

Альтман заявил, что он поделился этим решением с восторгом и добавил, что они хотят, чтобы текущие и бывшие сотрудники выразили свои опасения относительно технологий искусственного интеллекта, которые разрабатывает компания. Он подчеркнул, что это важно для компании и ее плана по обеспечению безопасности.

Согласно TechCrunch, Институт безопасности искусственного интеллекта США—часть Национального института стандартов и технологий (NIST)—оценивает и принимает меры по устранению рисков на платформах искусственного интеллекта, а OpenAI уже работал над аналогичным соглашением с Великобританией всего несколько недель назад.

Объявление Альтмана последовало после того, как люди и организации критиковали меры безопасности компании. В июне несколько нынешних и бывших сотрудников OpenAI подписали открытое письмо, чтобы выразить свою обеспокоенность и предупредить о том, что AI может распространять дезинформацию и стать угрозой для общества. Многие сотрудники также ушли из компании из-за опасений за безопасность, включая ключевого исследователя OpenAI Яна Лейке, после того как OpenAI распустила команду Superalignment, которая была ответственна за решение проблем, связанных с рисками AI.

Несмотря на проблемы безопасности, OpenAI продолжает двигаться вперед. Компания только что запустила голосовую функцию для ChatGPT Plus, и новый поисковый движок на базе AI под названием SearchGPT стал доступен для выбранных пользователей.

Новые попытки усилить меры безопасности, похоже, доказывают, что Альтман и его команда не забыли о рисках и опасениях, связанных с AI.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Показать больше...