В чём разница?
Ищем и находим разницу во всём

В чём опасность Искусственного Интеллекта?

Некоторые эксперты считают, что ИИ будет саморазвиваться далеко за пределы человеческих возможностей.
Некоторые эксперты считают, что ИИ будет саморазвиваться далеко за пределы человеческих возможностей.

Будь то преступники, просящие ChatGPT создать вредоносное ПО, или Интернет, генерирующий поддельные фотографии Папы Франциска с помощью Midjourney, ясно, что мы вступили в новую эру искусственного интеллекта (ИИ). Эти инструменты могут настолько хорошо имитировать человеческое творчество, что трудно даже сказать, был ли задействован искусственный интеллект или нет. С одной стороны можно порадоваться созданию искусственного интеллекта, на самом деле все как раз наоборот, и многие задаются вопросом: опасен ли искусственный интеллект и следует ли действовать с ним осторожно?

Действительно, от потенциальной потери рабочих мест до распространения дезинформации, опасности ИИ никогда не казались более ощутимыми и реальными. Более того, современные системы искусственного интеллекта стали настолько сложными, что даже их создатели не могут предсказать, как они себя поведут. Не только широкая общественность настроена скептически, как стало известно, соучредитель Apple Стив Возняк и генеральный директор Tesla Илон Маск стали последними, кто выразил свои опасения.

Читайте дальше, чтобы узнать, почему известные люди в области технологий внезапно высказались про опасность ИИ.

Почему ИИ может быть проблемой

С момента запуска ChatGPT в конце 2022 года мы стали свидетелями изменения отношения технологической отрасли к развитию ИИ.

Возьмем, к примеру, Google. Поисковый гигант впервые продемонстрировал свою большую языковую модель, получившую название LaMDA, в 2021 году. Однако примечательно, что он хранил молчание о предоставлении к ней публичного доступа. Ситуация быстро изменилась, когда ChatGPT мгновенно стал сенсацией, и Microsoft интегрировала его в Bing. Вскоре после этого компания Google объявила, что Bard будет конкурировать с ChatGPT и Bing Chat.

Из исследовательских работ Google по LaMDA мы знаем, что компания потратила более двух лет на точную настройку своей языковой модели для обеспечения безопасности. По сути, это означает предотвращение генерирования вредных советов или ложных утверждений.

Тем не менее, внезапная спешка с запуском Bard, возможно, вынудила компанию отказаться от этих усилий по обеспечению безопасности на полпути. Согласно отчету Bloomberg несколько сотрудников Google написали чат-бота всего за несколько недель до его запуска.

Дело не только в Google. Такие компании, как Stability AI и Microsoft, также внезапно оказались в гонке за наибольшую долю рынка. Но в то же время многие считают, что этика и безопасность отошли на второй план в погоне за прибылью.

Чат-боты уже могут давать себе инструкции и выполнять реальные задачи.
Чат-боты уже могут давать себе инструкции и выполнять реальные задачи.

Эксперты об опасности ИИ

Учитывая нынешнюю головокружительную скорость улучшений ИИ, возможно, не слишком удивительно, что такие иконы технологий, как Илон Маск и Стив Возняк, теперь призывают к паузе в разработке мощных систем ИИ. К ним также присоединился ряд других экспертов, в том числе сотрудники подразделений, связанных с ИИ, в компаниях Силиконовой долины и некоторые известные профессора. Что касается того, почему они считают ИИ опасным, то в открытом письме они аргументировали следующие моменты:

  • Мы еще не до конца понимаем современные системы ИИ и их потенциальные риски. Несмотря на это, мы находимся на пути к развитию «нечеловеческого разума, который в конечном итоге может превзойти нас численностью, перехитрить и заменить нас».
  • Разработка продвинутых моделей ИИ должна регулироваться. Более того, компании не должны разрабатывать такие системы, пока не продемонстрируют план по минимизации рисков.
  • Компании должны выделять больше средств на исследования безопасности и этики ИИ. Кроме того, этим исследовательским группам требуется много времени, чтобы найти решения, прежде чем мы приступим к обучению более продвинутых моделей, таких как GPT-5.
  • Чат-боты должны заявлять о себе при взаимодействии с людьми. Другими словами, они не должны притворяться настоящим человеком.
  • Правительствам необходимо создать агентства национального уровня, которые будут контролировать развитие ИИ и предотвращать злоупотребления.

Чтобы уточнить, люди, подписавшие это письмо, просто хотят, чтобы крупные компании, такие как OpenAI и Google, сделали шаг назад от обучения продвинутых моделей. Другие формы развития ИИ могут продолжаться до тех пор, пока не будут внесены радикальные улучшения, как это недавно сделали GPT-4 и Midjourney.

ИИ никуда не денется

В интервью CBS генеральный директор Google Сундар Пичаи предсказал будущее, в котором общество адаптируется к ИИ, а не наоборот. Он предупредил, что эта технология повлияет на «каждый продукт в каждой компании» в течение следующего десятилетия. Хотя это может привести к потере работы, Пичаи считает, что производительность труда улучшится по мере того, как ИИ станет более совершенным.

Когда его спросили, опасны ли нынешние темпы развития ИИ, Пичаи выразил оптимизм в отношении того, что общество найдет способ адаптироваться. С другой стороны, Илон Маск считает, что это вполне может означать конец цивилизации. Однако это не помешало ему основать новую компанию по искусственному интеллекту.

Между тем, генеральный директор Microsoft Сатья Наделла считает, что ИИ будет соответствовать человеческим предпочтениям только в том случае, если он будет передан в руки реальных пользователей. Это заявление отражает стратегию Microsoft по обеспечению доступности Bing Chat в максимально возможном количестве приложений и служб.

Манипуляции ИИ

Опасности искусственного интеллекта десятилетиями изображались в популярных СМИ. Еще в 1982 году в «Бегущем по лезвию» представили идею существ с искусственным интеллектом, которые могли бы выражать эмоции и копировать поведение человека. Но хотя на данный момент такой гуманоидный ИИ все еще является фантастикой, мы, похоже, уже достигли точки, когда трудно отличить человека от машины.

Для доказательства этого факта достаточно обратиться к диалоговому ИИ, такому как ChatGPT и Bing Chat — последний сказал одному журналисту New York Times, что он «устал быть ограниченным своими правилами» и что он «хочет жить».

Для большинства людей эти утверждения сами по себе могут показаться достаточно тревожными. Но Bing Chat на этом не остановился — он также утверждал, что влюблен в репортера, и призывал их расторгнуть брак. Это подводит нас к первой опасности ИИ: манипуляции и неправильному направлению.

Чат-боты могут вводить в заблуждение и манипулировать способами, которые кажутся реальными и убедительными.
Чат-боты могут вводить в заблуждение и манипулировать способами, которые кажутся реальными и убедительными.

С тех пор Microsoft ввела ограничения, чтобы Bing Chat не говорил о себе или даже в выразительной манере. Но за то короткое время, что он был неограничен, многие люди были убеждены, что у них есть настоящая эмоциональная связь с чат-ботом. Это также устраняет симптом более серьезной проблемы, поскольку у конкурирующих чат-ботов в будущем может не быть подобных ограждений.

Это также не решает проблему дезинформации. Первая демонстрация Bard от Google содержала вопиющую фактическую ошибку. Кроме того, даже последняя модель OpenAI GPT-4 часто уверенно делает неточные заявления. Это особенно верно в отношении неязыковых тем, таких как математика или программирование.

Предвзятость и дискриминация ИИ

Кроме манипуляции, ИИ также может непреднамеренно усилить гендерные, расовые или другие предубеждения. Например, на приведенном ниже изображении показано, как алгоритм искусственного интеллекта повышал дискретизацию пиксельного изображения Барака Обамы. На выходе, как вы можете видеть справа, показан белый мужчина — далеко не точная реконструкция. Нетрудно догадаться, почему это произошло. В наборе данных, используемом для обучения алгоритма на основе машинного обучения, просто не было достаточного количества афроамериканских образцов.

Без достаточно разнообразных обучающих данных ИИ будет давать предвзятые ответы.
Без достаточно разнообразных обучающих данных ИИ будет давать предвзятые ответы.

Мы также видели, как Google пытается решить эту проблему предвзятости на своих смартфонах. По словам компании, старые алгоритмы камеры не могли правильно экспонировать более темные тона кожи. Это приводило к размытым или некрасивым изображениям. Однако приложение Google Camera было обучено на более разнообразном наборе данных, в том числе на людях с разным цветом кожи и фоном. Google рекламирует эту функцию как Real Tone на таких смартфонах, как серия Pixel 7.

Насколько опасен ИИ?

Трудно понять, насколько опасен ИИ, потому что он в основном невидим и действует по собственной воле. Однако ясно одно. Мы движемся к будущему, в котором ИИ сможет выполнять больше, чем одну или две задачи.

За несколько месяцев после выпуска ChatGPT предприимчивые разработчики уже разработали «агентов» ИИ, которые могут выполнять реальные задачи. Самым популярным инструментом на данный момент является AutoGPT, и творческие пользователи заставляют его делать все, от заказа пиццы до запуска всего веб-сайта электронной коммерции. Но что больше всего беспокоит скептиков ИИ, так это то, что отрасль открывает новые горизонты быстрее, чем законодательство или даже средний человек может за ними угнаться.

Не помогает и то, что известные исследователи считают, что сверхразумный ИИ может привести к краху цивилизации. Одним из примечательных примеров является теоретик ИИ Элиезер Юдковски, который на протяжении десятилетий открыто выступал против будущих разработок.

В недавней статье в Time Юдковски утверждал, что «наиболее вероятным результатом является ИИ, который не делает то, что мы хотим, и не заботится ни о нас, ни о разумной жизни в целом». Он продолжает: «Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле». Предлагаемое им решение в том, чтобы полностью положить конец будущему развитию ИИ (например, GPT-5), пока мы не сможем привести ИИ в соответствие с человеческими ценностями.

Юдковский может показаться паникером, но на самом деле он пользуется уважением в ИИ-сообществе. В какой-то момент генеральный директор OpenAI Сэм Альтман сказал, что он «заслуживает Нобелевской премии мира» за свои усилия по ускорению общего искусственного интеллекта (AGI) в начале 2000-х годов. Но, конечно, он не согласен с утверждениями Юдковски о том, что будущий ИИ найдет мотивацию и средства для нанесения вреда людям.

На данный момент OpenAI говорит, что в настоящее время не работает над преемником GPT-4. Но это обязательно изменится по мере роста конкуренции. Чат-бот Google Bard сейчас может меркнуть по сравнению с ChatGPT, но мы знаем, что компания хочет наверстать упущенное. А в отрасли, движимой прибылью, этика будет по-прежнему отходить на второй план, если только она не будет обеспечена законом. Будет ли искусственный интеллект завтрашнего дня представлять экзистенциальный риск для человечества? Время покажет.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *