OpenAI предоставит Институту Безопасности США ранний доступ к новым моделям
Сэм Альтман, генеральный директор OpenAI, объявил сегодня на X, что компания предоставит ранний доступ к предстоящей базовой модели Институту безопасности искусственного интеллекта США.
«Как мы говорили прошлым июлем, мы обязуемся выделять по крайней мере 20% вычислительных ресурсов на усилия по безопасности по всей компании», — написал Альтман, «Наша команда работает с Институтом безопасности AI США над соглашением, согласно которому мы предоставим ранний доступ к нашей следующей основной модели, чтобы мы могли совместно продвигать науку оценок AI».
Альтман заявил, что он поделился этим решением с восторгом и добавил, что они хотят, чтобы текущие и бывшие сотрудники выразили свои опасения относительно технологий искусственного интеллекта, которые разрабатывает компания. Он подчеркнул, что это важно для компании и ее плана по обеспечению безопасности.
Согласно TechCrunch, Институт безопасности искусственного интеллекта США—часть Национального института стандартов и технологий (NIST)—оценивает и принимает меры по устранению рисков на платформах искусственного интеллекта, а OpenAI уже работал над аналогичным соглашением с Великобританией всего несколько недель назад.
Объявление Альтмана последовало после того, как люди и организации критиковали меры безопасности компании. В июне несколько нынешних и бывших сотрудников OpenAI подписали открытое письмо, чтобы выразить свою обеспокоенность и предупредить о том, что AI может распространять дезинформацию и стать угрозой для общества. Многие сотрудники также ушли из компании из-за опасений за безопасность, включая ключевого исследователя OpenAI Яна Лейке, после того как OpenAI распустила команду Superalignment, которая была ответственна за решение проблем, связанных с рисками AI.
Несмотря на проблемы безопасности, OpenAI продолжает двигаться вперед. Компания только что запустила голосовую функцию для ChatGPT Plus, и новый поисковый движок на базе AI под названием SearchGPT стал доступен для выбранных пользователей.
Новые попытки усилить меры безопасности, похоже, доказывают, что Альтман и его команда не забыли о рисках и опасениях, связанных с AI.
Оставьте комментарий
Отменить