Эксперты назвали потенциальные последствия неконтролируемого распространения ИИ

0

В недавней статье, опубликованной в журнале BMJ Global Health, исследователи выделили угрозы, возникающие в результате преднамеренного, непреднамеренного или неосмотрительного злоупотребления искусственным интеллектом (ИИ) и искусственным общим интеллектом (AGI), самосовершенствующейся формой ИИ. Кроме того, они обсудили серьезные последствия непредвидения и адаптации к изменениям в обществе, основанным на ИИ.

Основные угрозы от неправильного использования ИИ

Исследователи описали три способа, с помощью которых ИИ может угрожать существованию человека.

  • Во-первых, ИИ может увеличить возможности для манипулирования людьми. В Китае и 75 других странах правительство расширяет наблюдение на основе ИИ. ИИ быстро очищает, систематизирует и анализирует огромные объемы персональных данных, включая видеоконтент, снятый камерами, установленными в общественных местах. Хотя это могло бы помочь в борьбе с актами терроризма, хорошее применение, с другой стороны, эти данные могут способствовать росту поляризации и экстремистских взглядов. Система социального кредитования в Китае автоматически лишает людей доступа к банковским и страховым услугам, налагает штрафы и запрещает им путешествовать и отправлять своих детей в школы на основе анализа их финансовых транзакций, полицейских записей и социальных связей для оценки индивидуального поведения.
  • Во-вторых, ИИ имеет широкое применение в вооруженных силах и системах обороны, что порождает вторую угрозу, связанную с ИИ, достижениями в области смертоносных автономных систем оружия (LAWS). Это автономное оружие может определять местонахождение, визуально распознавать и «наводить» на человеческие цели без контроля людей над ними, что делает их новым и смертоносным оружием массового уничтожения. Подрывные элементы, такие как террористические организации, могли бы дешево массово производить ЗАКОНЫ, которые бывают всех размеров и форм, и настроить их на массовые убийства. Например, возможно оснастить миллионы дронов-квадрокоптеров, небольших мобильных устройств взрывчаткой, визуальной идентификацией и автономными навигационными возможностями, а также запрограммировать их на убийство без присмотра человека.
  • В-третьих, широкое внедрение инструментов, основанных на технологиях ИИ, может привести к потере десятков или сотен рабочих мест в ближайшие десятилетия. Однако широкое внедрение инструментов ИИ будет в значительной степени зависеть от политических решений правительств и общества и темпов развития ИИ, робототехники и других дополняющих технологий.

Тем не менее, влияние автоматизации, основанной на ИИ, будет наихудшим для людей, занятых на низкоквалифицированных работах в странах с низким и средним уровнем дохода (СНСД). В конечном счете, это не пощадит верхние слои квалификации глобальной рабочей силы, включая тех, кто проживает в странах с высоким уровнем дохода.

На протяжении многих десятилетий люди представляли и разрабатывали машины, которые были бы более умными, сознательными и мощными, чем мы сами. Это привело к разработке AGI, теоретических машин на основе ИИ, которые обучаются и интуитивно улучшают свой код и начинают разрабатывать свои собственные цели.

После подключения их к реальному миру, то есть с помощью роботов, оружия, транспортных средств или цифровых систем, становится трудно представить или предсказать эффекты и исход ИИ с какой-либо уверенностью. Тем не менее, намеренно или нет, эти машины могут нанести вред людям и поработить их. Соответственно, в недавнем опросе, проведенном среди членов общества искусственного интеллекта, 18% участников выразили обеспокоенность тем, что развитие ИИ может быть экзистенциально катастрофическим.

Кроме того, авторы подчеркнули, что, хотя ИИ обладает потенциалом революционизировать здравоохранение, улучшая диагностику и помогая разрабатывать новые методы лечения, некоторые из его применений могут нанести ущерб. Например, большинство систем ИИ обучаются на наборах данных, в которых недостаточно представлены группы населения, подверженные дискриминации.

Из-за этого неполного и предвзятого набора данных, например, пульсоксиметр, управляемый искусственным интеллектом, завысил уровень кислорода в крови у пациентов с более темной кожей. Аналогичным образом, системы распознавания лиц неправильно классифицируют пол субъектов с более темной кожей.

Выводы

Медицинское сообщество и общественное здравоохранение должны поднять тревогу по поводу рисков и угроз, создаваемых ИИ, подобно тому, как Международная организация «Врачи за предотвращение ядерной войны» представила основанные на фактических данных аргументы об угрозе ядерной войны.

Самое главное, существует потребность в основанной на фактических данных пропаганде радикальной перестройки социальной и экономической политики на ближайшие десятилетия. Скорее, мы должны начать готовить наши будущие поколения к жизни в мире, где человеческий труд больше не был бы нужен для производства товаров и услуг, потому что ИИ кардинально изменил бы сценарий работы и занятости. Об этом сообщает News-Medical.

Комментарии закрыты