Опасен ли искусственный интеллект (ИИ)?

В понедельник(Monday) , 22 мая(May 22) 2023 года, проверенный аккаунт в Твиттере под названием «Bloomberg Feed» поделился твитом, в котором утверждалось, что (Twitter)в Пентагоне(explosion at the Pentagon) произошел взрыв , и сопровождалось изображением. Если вам интересно, какое отношение это имеет к искусственному интеллекту (ИИ), изображение было создано ИИ, а твит быстро стал вирусным и вызвал кратковременное падение фондового рынка. Все могло быть гораздо хуже — яркое напоминание об опасностях искусственного интеллекта.

Опасности искусственного интеллекта

Нам нужно беспокоиться не только о фейковых новостях. Существует множество непосредственных или потенциальных рисков, связанных с ИИ, от рисков, касающихся конфиденциальности и безопасности, до предвзятости и вопросов авторского права. Мы углубимся в некоторые из этих опасностей искусственного интеллекта, посмотрим, что делается для их смягчения сейчас и в будущем, и спросим, ​​перевешивают ли риски ИИ преимущества.

Фейковые новости

Когда дипфейки впервые появились, возникли опасения, что их можно использовать со злыми намерениями. То же самое можно сказать и о новой волне генераторов изображений ИИ(AI image generators) , таких как DALL-E 2 , Midjourney или DreamStudio . 28 марта(March 28) 2023 года вирусными стали сгенерированные искусственным интеллектом изображения Папы Франциска(AI-generated images of Pope Francis) в белой пуховой куртке Balenciaga , наслаждающегося несколькими приключениями, включая катание на скейтборде и игру в покер. (Balenciaga)Если вы не изучите изображения внимательно, будет трудно отличить эти изображения от реальных вещей.

Хотя пример с Папой, несомненно, был немного забавным, изображение (и сопровождающий его твит) о Пентагоне было(Pentagon) совсем не таким. Поддельные(Fake) изображения, созданные ИИ, могут нанести ущерб репутации, положить конец бракам или карьере, вызвать политические волнения и даже начать войны, если ими владеют не те люди — короче говоря, эти изображения, созданные ИИ, могут быть чрезвычайно опасными, если ими злоупотреблять.

Благодаря тому, что генераторы изображений ИИ теперь бесплатно доступны для использования всеми, а Photoshop добавил генератор изображений ИИ(Photoshop adding an AI image generator ) в свое популярное программное обеспечение, возможности манипулировать изображениями и создавать фейковые новости стали больше, чем когда-либо.

Конфиденциальность, безопасность и взлом

Конфиденциальность и безопасность также вызывают серьезную озабоченность, когда речь идет о рисках, связанных с ИИ: ряд стран уже запретили ChatGPT OpenAI . Италия(Italy) запретила эту модель из соображений конфиденциальности, полагая, что она не соответствует Европейскому общему регламенту защиты данных(General Data Protection Regulation) ( GDPR ), а правительства Китая(China) , Северной Кореи(North Korea) и России запретили ее из-за опасений, что она будет распространять дезинформацию.

Так почему же мы так обеспокоены конфиденциальностью, когда дело касается ИИ? Приложения(AI apps) и системы искусственного интеллекта собирают большие объемы данных для обучения и прогнозирования. Но как эти данные хранятся и обрабатываются? Существует реальный риск утечки данных, взлома и попадания информации в чужие руки.

Под угрозой находятся не только наши личные данные. Взлом ИИ представляет собой реальный риск — такого еще не произошло, но если злоумышленники смогут взломать системы ИИ, это может иметь серьезные последствия. Например, хакеры могут управлять беспилотными транспортными средствами, взламывать системы безопасности ИИ, чтобы получить доступ к местам с высоким уровнем безопасности, и даже взламывать системы вооружения с защитой ИИ.

Эксперты Агентства (Agency)перспективных исследовательских (Defense Advanced Research)проектов(Projects) Министерства обороны США(US Department) ( DARPA ) осознают эти риски и уже работают над проектом DARPA «Гарантия устойчивости искусственного интеллекта от обмана»(Guaranteeing AI Robustness Against Deception) ( GARD ), решая проблему с нуля. Цель проекта — обеспечить, чтобы устойчивость к взлому и фальсификации была встроена в алгоритмы и искусственный интеллект.

Нарушение авторского права

Еще одна опасность ИИ — нарушение авторских прав. Возможно, это звучит не так серьезно, как некоторые другие опасности, о которых мы упомянули, но разработка моделей искусственного интеллекта, таких как GPT-4, подвергает каждого повышенному риску нарушения прав.

Каждый раз, когда вы просите ChatGPT создать что-то для вас — будь то сообщение в блоге о путешествиях или новое название вашего бизнеса — вы передаете ему информацию, которую он затем использует для ответа на будущие запросы. Информация, которую он вам передает, может нарушать чьи-либо авторские права, поэтому так важно использовать детектор плагиата и редактировать любой контент, созданный ИИ, перед его публикацией.

Социальная предвзятость и предвзятость данных

ИИ не человек, поэтому он не может быть предвзятым, верно? Неправильный. Люди и данные используются для обучения моделей ИИ и чат-ботов(chatbots) , а это означает, что предвзятые данные или личности приведут к предвзятому ИИ. В ИИ есть два типа предвзятости: социальная предвзятость и предвзятость данных.

Учитывая, что в повседневном обществе присутствует множество предубеждений, что произойдет, когда эти предубеждения станут частью ИИ? Программисты, ответственные за обучение модели, могут иметь предвзятые ожидания, которые затем попадают в системы искусственного интеллекта.

Или данные, используемые для обучения и разработки ИИ, могут быть неверными, предвзятыми или собранными недобросовестно. Это приводит к предвзятости данных, которая может быть столь же опасной, как и предвзятость общества. Например, если система распознавания лиц обучена с использованием в основном лиц белых людей, ей может быть сложно распознавать лица представителей групп меньшинств, что увековечивает угнетение.

Роботы отбирают наши рабочие места

Развитие чат-ботов, таких как ChatGPT и Google Bard, породило совершенно новую проблему, связанную с искусственным интеллектом: риск того, что роботы(robots ) отнимут нашу работу. Мы уже видим, как писателей в технологической отрасли заменяет искусственный интеллект, разработчики программного обеспечения обеспокоены тем, что потеряют работу из-за ботов, а компании используют ChatGPT для создания контента для блогов и социальных сетей вместо того, чтобы нанимать писателей-людей.

Согласно докладу Всемирного экономического форума «Будущее рабочих мест за 2020 год»(World Economic Forum’s The Future of Jobs Report 2020) , ожидается, что к 2025 году ИИ заменит 85 миллионов рабочих мест во всем мире. Даже если ИИ не заменит писателей, многие уже используют его в качестве инструмента. Тем, кто работает на риске быть замененным ИИ, возможно, придется адаптироваться, чтобы выжить — например, писатели могут стать инженерами по ИИ, что позволит им работать с такими инструментами, как ChatGPT, для(ChatGPT) создания контента, а не заменяться этими моделями.

Будущие потенциальные риски ИИ

Все это непосредственные или надвигающиеся риски, но как насчет некоторых менее вероятных, но все же возможных опасностей ИИ, которые мы можем увидеть в будущем? К ним относятся такие вещи, как искусственный интеллект, запрограммированный на причинение вреда людям, например, автономное оружие, обученное убивать во время войны.

Кроме того, существует риск того, что ИИ может целенаправленно сосредоточиться на своей запрограммированной цели, развивая деструктивное поведение, пытаясь достичь этой цели любой ценой, даже когда люди пытаются помешать этому.

Скайнет(Skynet) научил нас, что происходит, когда ИИ становится разумным. Однако, хотя инженер Google Блейк Лемуан,(Blake Lemoine) возможно, пытался убедить всех, что LaMDA, генератор чат-ботов с искусственным интеллектом Google, был разумным(LaMDA, Google’s artificially intelligent chatbot generator was sentient) еще в июне 2022 года(June 2022) , к счастью, на сегодняшний день нет никаких доказательств того, что это правда.

Проблемы регулирования ИИ

В понедельник, 15 мая 2020 г., генеральный директор OpenAI Сэм Альтман присутствовал на первых слушаниях в Конгрессе по искусственному интеллекту(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) , предупредив: «Если эта технология пойдет не так, она может пойти совсем не так». Руководитель OpenAI(OpenAI CO) ясно дал понять, что поддерживает регулирование, и вынес на слушания многие свои собственные идеи. Проблема в том, что ИИ развивается с такой скоростью, что трудно понять, с чего начать регулирование.

Конгресс(Congress) хочет избежать тех же ошибок, которые были допущены в начале эры социальных сетей, и группа экспертов вместе с лидером большинства в Сенате Чаком Шумером(Senate Majority Leader Chuck Schumer) уже работает над правилами, которые потребуют от компаний раскрывать, какие источники данных они использовали для обучения моделей и кто обучал их. Однако может пройти некоторое время, прежде чем именно то, как будет регулироваться ИИ, станет ясно, и, несомненно, со стороны компаний, занимающихся ИИ, возникнет негативная реакция.

Угроза искусственного общего (Artificial General Intelligence)интеллекта(Threat)

Существует также риск создания общего искусственного интеллекта ( AGI ), который сможет выполнять любые задачи, которые может выполнить человек (или животное). Часто(Often) упоминаемый в научно-фантастических фильмах, мы, вероятно, еще в десятилетиях от такого создания, но если и когда мы создадим ОИИ ,(AGI) это может представлять угрозу для человечества.

Многие общественные деятели уже поддерживают мнение о том, что ИИ представляет экзистенциальную угрозу для человечества, в том числе Стивен Хокинг(Stephen Hawking) , Билл Гейтс(Bill Gates) и даже бывший генеральный директор Google Эрик Шмидт(Google CEO Eric Schmidt) , который заявил: «Искусственный интеллект может представлять экзистенциальные риски, и правительствам необходимо знать, как защититься от них». технология не используется злоумышленниками».

Итак, опасен ли искусственный интеллект и перевешивают ли его риски его преимущества? Решение по этому вопросу еще не принято, но мы уже видим доказательства некоторых рисков, окружающих нас прямо сейчас. Другие опасности вряд ли реализуются в ближайшее время, если вообще реализуются. Однако ясно одно: опасность ИИ не следует недооценивать. Крайне важно с самого начала обеспечить правильное регулирование ИИ, чтобы свести к минимуму и, как мы надеемся, смягчить любые будущие риски.



About the author

Я старший инженер-программист и разработчик изображений и приложений для iPhone с более чем 10-летним опытом. Мои навыки работы с аппаратным и программным обеспечением делают меня идеально подходящим для любого проекта корпоративного или потребительского смартфона. У меня есть глубокое понимание того, как создавать высококачественные изображения и способность работать со всеми различными форматами изображений. Кроме того, я знаком с разработкой для Firefox и iOS.



Related posts