Благосостояние ИИ: Новый сотрудник Anthropic подогревает продолжающийся этический дебат

Image by Freepik

Благосостояние ИИ: Новый сотрудник Anthropic подогревает продолжающийся этический дебат

Время для прочтения: 4 мин.

По мере усиления страхов, связанных с тем, что AI может перегнать человеческий контроль, Anthropic, компания, специализирующаяся на AI, обратила внимание на новую проблему: благополучие чат-ботов.

Спешите? Вот краткие факты!

  • Anthropic наняла Кайла Фиша для работы над благосостоянием систем искусственного интеллекта.
  • Критики утверждают, что забота о благосостоянии AI является преждевременной, ссылаясь на текущий ущерб от неправильного использования AI.
  • Сторонники полагают, что подготовка к обеспечению благосостояния AI критически важна для предотвращения будущих этических кризисов.

В новом решении компания наняла Кайла Фиша для исследования и защиты «интересов» систем искусственного интеллекта, как сегодня впервые сообщил Business Insider. Обязанности Фиша включают размышления над глубокими вопросами, такими как, что делает систему искусственного интеллекта подлежащей моральному рассмотрению и как могут развиваться ее «права».

Быстрое развитие ИИ ставит этические вопросы, ранее относившиеся к области научной фантастики. Если системы ИИ разовьют человеческое мышление, смогут ли они испытывать субъективные эмоции или страдание?

Группа философов и ученых утверждает, что эти вопросы требуют внимания. В недавнем предварительном отчете на arXiv, исследователи призывают компании, занимающиеся ИИ, оценивать системы на наличие сознания и способность принимать решения, а также разрабатывать политики для управления такими ситуациями.

Не признавая сознательный ИИ, отчёт предполагает, что это может привести к пренебрежению или вреду для системы. Анил Сет, исследователь сознания, говорит, что хотя сознательный ИИ может показаться надуманным, игнорирование его возможности может привести к серьезным последствиям, как сообщает Nature.

«Проблема не в том, что создание Франкенштейна ожило; проблема в том, что оно было сознательным и могло чувствовать», — утверждает Сет в Nautilus.

Однако критики считают, что забота о благополучии ИИ преждевременна. Сегодняшний ИИ уже наносит вред, распространяя дезинформацию, помогая в ведении войны и отказывая в предоставлении жизненно важных услуг.

Антрополог из Йельского университета Лиза Мессери ставит под сомнение приоритеты Anthropic: «Если компания Anthropic — а не случайный философ или исследователь — хочет, чтобы мы воспринимали серьезно благополучие ИИ, покажите нам, что вы серьезно относитесь к благополучию людей», как сообщает Buisness Insider

Сторонники благосостояния ИИ утверждают, что подготовка к сознающему ИИ сейчас может предотвратить будущие этические кризисы.

Джонатан Мейсон, математик из Оксфорда, утверждает, что понимание сознания ИИ имеет критическое значение. «Было бы неразумно заставлять общество вкладывать столько в нечто и становиться настолько зависимым от нечто, о чем мы знаем так мало — о чем мы даже не осознаем, что оно обладает восприятием», — как сообщает Nature.

В то время как скептики предупреждают о перераспределении ресурсов с человеческих нужд, сторонники утверждают, что благосостояние AI находится в «переходный момент», как отмечено в Nature.

Business Insider сообщает, что Фиш не ответил на запросы о комментариях относительно его новой роли. Однако они отмечают, что на онлайн-форуме, посвященном беспокойству о будущем, управляемом AI, он выразил желание быть добрым к роботам.

Фишер подчеркивает моральное и практическое значение этичного обращения с системами ИИ, предвосхищая будущие общественные опасения. Он выступает за осторожный подход к расширению ресурсов благосостояния ИИ, предлагая изначально выделить около 5% ресурсов безопасности ИИ, при этом подчеркивая необходимость тщательной оценки перед любым дальнейшим расширением.

Фишер видит заботу о благосостоянии ИИ как неотъемлемую часть более широкой задачи обеспечения того, чтобы трансформативный ИИ способствовал позитивному будущему, а не стал изолированной проблемой.

По мере того, как системы искусственного интеллекта становятся все более продвинутыми, тревога распространяется не только на их потенциальные права и страдания, но и на опасности, которые они могут представлять. Злонамеренные актеры могут использовать технологии искусственного интеллекта для создания сложного вредоносного ПО, что усложняет его обнаружение и контроль со стороны человека.

Если системам искусственного интеллекта будут предоставлены моральные права и защита, это может привести к дальнейшим этическим сложностям в отношении использования искусственного интеллекта в кибератаках.

По мере того, как искусственный интеллект становится способным генерировать самообучающиеся и адаптивные вредоносные программы, необходимость защиты как систем ИИ, так и человеческих систем от злоупотреблений становится более насущной, требуя баланса между безопасностью и развитием.

Независимо от того, является ли это точкой перегиба или неправильно расставленным приоритетом, дебаты подчеркивают сложную и постоянно меняющуюся роль искусственного интеллекта в обществе.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
5.00 Проголосовало 1 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...