Благосостояние ИИ: Новый сотрудник Anthropic подогревает продолжающийся этический дебат
По мере усиления страхов, связанных с тем, что AI может перегнать человеческий контроль, Anthropic, компания, специализирующаяся на AI, обратила внимание на новую проблему: благополучие чат-ботов.
Спешите? Вот краткие факты!
- Anthropic наняла Кайла Фиша для работы над благосостоянием систем искусственного интеллекта.
- Критики утверждают, что забота о благосостоянии AI является преждевременной, ссылаясь на текущий ущерб от неправильного использования AI.
- Сторонники полагают, что подготовка к обеспечению благосостояния AI критически важна для предотвращения будущих этических кризисов.
В новом решении компания наняла Кайла Фиша для исследования и защиты «интересов» систем искусственного интеллекта, как сегодня впервые сообщил Business Insider. Обязанности Фиша включают размышления над глубокими вопросами, такими как, что делает систему искусственного интеллекта подлежащей моральному рассмотрению и как могут развиваться ее «права».
Быстрое развитие ИИ ставит этические вопросы, ранее относившиеся к области научной фантастики. Если системы ИИ разовьют человеческое мышление, смогут ли они испытывать субъективные эмоции или страдание?
Группа философов и ученых утверждает, что эти вопросы требуют внимания. В недавнем предварительном отчете на arXiv, исследователи призывают компании, занимающиеся ИИ, оценивать системы на наличие сознания и способность принимать решения, а также разрабатывать политики для управления такими ситуациями.
Не признавая сознательный ИИ, отчёт предполагает, что это может привести к пренебрежению или вреду для системы. Анил Сет, исследователь сознания, говорит, что хотя сознательный ИИ может показаться надуманным, игнорирование его возможности может привести к серьезным последствиям, как сообщает Nature.
«Проблема не в том, что создание Франкенштейна ожило; проблема в том, что оно было сознательным и могло чувствовать», — утверждает Сет в Nautilus.
Однако критики считают, что забота о благополучии ИИ преждевременна. Сегодняшний ИИ уже наносит вред, распространяя дезинформацию, помогая в ведении войны и отказывая в предоставлении жизненно важных услуг.
Антрополог из Йельского университета Лиза Мессери ставит под сомнение приоритеты Anthropic: «Если компания Anthropic — а не случайный философ или исследователь — хочет, чтобы мы воспринимали серьезно благополучие ИИ, покажите нам, что вы серьезно относитесь к благополучию людей», как сообщает Buisness Insider
Сторонники благосостояния ИИ утверждают, что подготовка к сознающему ИИ сейчас может предотвратить будущие этические кризисы.
Джонатан Мейсон, математик из Оксфорда, утверждает, что понимание сознания ИИ имеет критическое значение. «Было бы неразумно заставлять общество вкладывать столько в нечто и становиться настолько зависимым от нечто, о чем мы знаем так мало — о чем мы даже не осознаем, что оно обладает восприятием», — как сообщает Nature.
В то время как скептики предупреждают о перераспределении ресурсов с человеческих нужд, сторонники утверждают, что благосостояние AI находится в «переходный момент», как отмечено в Nature.
Business Insider сообщает, что Фиш не ответил на запросы о комментариях относительно его новой роли. Однако они отмечают, что на онлайн-форуме, посвященном беспокойству о будущем, управляемом AI, он выразил желание быть добрым к роботам.
Фишер подчеркивает моральное и практическое значение этичного обращения с системами ИИ, предвосхищая будущие общественные опасения. Он выступает за осторожный подход к расширению ресурсов благосостояния ИИ, предлагая изначально выделить около 5% ресурсов безопасности ИИ, при этом подчеркивая необходимость тщательной оценки перед любым дальнейшим расширением.
Фишер видит заботу о благосостоянии ИИ как неотъемлемую часть более широкой задачи обеспечения того, чтобы трансформативный ИИ способствовал позитивному будущему, а не стал изолированной проблемой.
По мере того, как системы искусственного интеллекта становятся все более продвинутыми, тревога распространяется не только на их потенциальные права и страдания, но и на опасности, которые они могут представлять. Злонамеренные актеры могут использовать технологии искусственного интеллекта для создания сложного вредоносного ПО, что усложняет его обнаружение и контроль со стороны человека.
Если системам искусственного интеллекта будут предоставлены моральные права и защита, это может привести к дальнейшим этическим сложностям в отношении использования искусственного интеллекта в кибератаках.
По мере того, как искусственный интеллект становится способным генерировать самообучающиеся и адаптивные вредоносные программы, необходимость защиты как систем ИИ, так и человеческих систем от злоупотреблений становится более насущной, требуя баланса между безопасностью и развитием.
Независимо от того, является ли это точкой перегиба или неправильно расставленным приоритетом, дебаты подчеркивают сложную и постоянно меняющуюся роль искусственного интеллекта в обществе.
Оставьте комментарий
Отменить