19/05/2024

Эксперты говорят, что их больше беспокоит дезинформация и манипулирование пользователями, чем то, что ИИ приведет к вымиранию человечества

Объявления

В связи с быстрым развитием и популярностью технологии искусственного интеллекта многие представители отрасли опасаются, что бесконтрольное развитие искусственного интеллекта может привести к вымиранию человечества. Однако эксперты утверждают, что самым большим негативным последствием ИИ вряд ли станут сцены ядерной войны из научно-фантастических фильмов, а скорее всего, ухудшение социальной среды, вызванное дезинформацией, манипулированием пользователями и т. д.

В последние месяцы наука все больше беспокоится по поводу искусственного интеллекта. Только на этой неделе более 300 лидеров отрасли опубликовали совместное открытое письмо, в котором предупредили, что искусственный интеллект может привести к вымиранию человечества и что к нему следует относиться так же серьезно, как к “эпидемиям и ядерной войне”.

Такая терминология, как “конец искусственного интеллекта”, всегда вызывает в воображении образы роботов, правящих миром в научно-фантастических фильмах, но каковы последствия бесконтрольного использования искусственного интеллекта? Эксперты говорят, что реальность может оказаться не такой драматичной, как в кино, и что не ИИ запустит ядерную бомбу, а постепенное разрушение социальной инфраструктуры.

“Я не думаю, что людям стоит беспокоиться о том, что ИИ станет плохим или у ИИ возникнет какое-то злонамеренное желание”, – говорит Джессика Ньюман, директор программы безопасности ИИ в Калифорнийском университете в Беркли. “Опасность исходит от чего-то гораздо более простого, а именно от того, что люди могут запрограммировать ИИ на вредные действия, или что мы можем в итоге интегрировать врожденно неточные системы ИИ во все больше и больше областей общества, которые могут причинить вред”.

Это не значит, что мы не должны беспокоиться об ИИ. Даже если сценарий конца света маловероятен, мощный ИИ способен дестабилизировать общество в виде растущих проблем с дезинформацией, манипулированием людьми и масштабными изменениями на рынке труда.

Хотя технология ИИ существует уже несколько десятилетий, популярность моделей изучения языка, таких как ChatGPT, усугубила давние опасения. В то же время, по словам Ньюмана, технологические компании наперегонки пытаются применить ИИ в своих продуктах, ожесточенно конкурируя друг с другом и создавая массу проблем.

“Я очень обеспокоена тем, по какому пути мы сейчас идем”, – сказала она. “Мы переживаем особенно опасное время для всего пространства ИИ, потому что эти системы, какими бы необычными они ни казались, все еще очень неточны и по своей сути несовершенны”.

Опрошенные эксперты сказали, что есть ряд областей, которые вызывают у них наибольшее беспокойство.

Ошибки и ложная информация

Во многих областях уже давно начались так называемые изменения в искусственном интеллекте. Методы машинного обучения лежат в основе алгоритмов продвижения новостей в социальных сетях, которые уже давно обвиняют в усугублении таких проблем, как присущая им предвзятость и дезинформация.

Эксперты предупреждают, что эти нерешенные проблемы будут только усугубляться по мере развития моделей ИИ. Наихудший сценарий может повлиять на понимание людьми правды и достоверной информации, что приведет к увеличению числа инцидентов, основанных на лжи. По мнению экспертов, увеличение количества ошибок и дезинформации может спровоцировать дальнейшие социальные волнения.

“Справедливо будет сказать, что фиаско в социальных сетях – это первый случай, когда мы столкнулись с действительно глупым искусственным интеллектом. Потому что рекомендательные системы на самом деле являются простыми моделями машинного обучения”, – сказал Питер Ванг, генеральный директор и соучредитель платформы для анализа данных Anaconda. “Мы действительно потерпели полное фиаско”.

Питер Ванг добавил, что эти ошибки могут привести систему в бесконечный порочный круг, поскольку модели машинного обучения также обучаются на неправильной информации, создавая некачественные наборы данных для будущих моделей. Это может привести к эффекту “убийства модели”, когда будущие модели будут усилены результатами прошлых моделей и навсегда останутся под их влиянием.

Эксперты говорят, что неточная дезинформация и вводящая в заблуждение дезинформация усиливаются ИИ. Большие языковые модели, такие как ChatGPT, склонны к так называемым “галлюцинациям”, неоднократно фабрикуя ложную информацию. Исследование, проведенное организацией NewsGuard, наблюдающей за новостной индустрией, показало, что многие из десятков онлайновых “новостных” сайтов с материалами, полностью написанными искусственным интеллектом, были неточными.

Сопредседатели NewsGuard Гордон Кровиц и Стивен Брилл говорят, что такие системы могут быть использованы плохими субъектами для преднамеренного распространения дезинформации в больших масштабах.

“Некоторые злоумышленники могут создавать ложные заявления, а затем использовать мультипликативный эффект системы для массового распространения ложной информации”, – сказал Кровиц. “Некоторые говорят, что опасность ИИ преувеличена, но в области новостей и информации он оказывает тревожное воздействие”.

 

“Дезинформация – это тот аспект ИИ, который с наибольшей вероятностью может нанести вред отдельным людям, и самый высокий риск с точки зрения потенциального вреда в более широком масштабе”, – говорит Ребекка Финлей из глобальной некоммерческой организации Partnership on AI. “Вопрос в том, как нам создать экосистему, в которой мы сможем понять, что реально?”. “И как нам подтвердить то, что мы видим в Интернете?”.

Злонамеренное манипулирование пользователями

Хотя большинство экспертов утверждают, что дезинформация является самой непосредственной и повсеместной проблемой, существует довольно много споров о том, в какой степени эта технология может негативно повлиять на мысли или поведение пользователей.

Действительно, эти опасения привели к ряду трагедий. Сообщается, что один человек в Бельгии покончил с собой после того, как его подтолкнул к этому чат-бот. Были также случаи, когда чат-боты советовали пользователю расстаться с партнером или советовали пользователю с расстройством пищевого поведения похудеть.

Ньюман сказал, что по своей конструкции, поскольку чат-боты общаются с пользователями в разговорном формате, они могут вызывать больше доверия.

“Большие языковые модели особенно способны тонко убеждать или манипулировать людьми, заставляя их менять свои убеждения или поведение”, – говорит она. “Одиночество и психическое здоровье уже являются большими проблемами во всем мире, и мы должны следить за тем, какое когнитивное влияние окажут чат-боты на мир”.

В результате эксперты больше обеспокоены не тем, что чат-боты ИИ обретут способности к восприятию и превзойдут пользователей-людей, а тем, что стоящие за ними большие языковые модели могут манипулировать людьми, заставляя их причинять себе вред, которого они в противном случае не причинили бы. По словам Ньюмана, это особенно касается языковых моделей, которые работают по модели монетизации рекламы и стремятся манипулировать поведением пользователей, чтобы они как можно дольше пользовались платформой.

Ньюман сказал: “Во многих случаях вред, причиняемый пользователям, также причиняется не потому, что они этого хотят, а является следствием того, что система не соблюдает протоколы безопасности”.

Ньюман добавил, что человекоподобная природа чат-ботов делает пользователей особенно уязвимыми для манипуляций.

“Если вы говорите с чем-то, использующим местоимения от первого лица, о своих собственных чувствах и ситуации, в которой он находится, даже зная, что это не настоящий человек, это все равно скорее всего вызовет реакцию, что он похож на человека, в результате чего люди с большей вероятностью захотят ему доверять”, – сказала она. “Языковые модели вызывают у людей желание доверять ему и относиться к нему как к другу, а не как к инструменту”.

Проблемы с рабочей силой

Еще одна давняя проблема заключается в том, что цифровая автоматизация заменит большое количество человеческих рабочих мест. Некоторые исследования пришли к выводу, что искусственный интеллект заменит 85 миллионов рабочих мест во всем мире к 2025 году и более 300 миллионов рабочих мест в будущем.

Отрасли и рабочие места, на которые повлияет ИИ, многочисленны: от сценаристов до специалистов по анализу данных. Сегодня ИИ может сдать экзамен на адвоката, как настоящий юрист, и ответить на вопросы о здоровье лучше, чем настоящий врач.

Эксперты предупреждают, что рост ИИ может привести к массовой безработице и, следовательно, к социальной нестабильности.

Питер Ванг предупреждает, что массовые увольнения уже в ближайшем будущем, что “многие рабочие места находятся под угрозой” и что существует мало планов по борьбе с последствиями.

“В США нет рамок для того, как люди будут выживать, когда потеряют работу”, – сказал он. “Это приведет к большому хаосу и беспорядкам. Для меня это самое конкретное и реалистичное непредвиденное последствие”.

Что насчет будущего

Несмотря на растущую обеспокоенность по поводу негативного влияния технологической индустрии и социальных медиа, в США существует мало мер по регулированию технологической индустрии и платформ социальных медиа. Эксперты опасаются того же в отношении искусственного интеллекта.

Питер Ванг говорит: “Одна из причин, по которой многие из нас беспокоятся о развитии искусственного интеллекта, заключается в том, что за последние 40 лет США как общество в значительной степени отказались от регулирования технологий”.

Тем не менее, в последние месяцы в Конгрессе США наметилось некоторое агрессивное движение: были проведены слушания, а генеральный директор OpenAI Сэм Альтман дал показания о мерах регулирования, которые должны быть введены в действие. Финли сказала, что эти инициативы ее “воодушевляют”, однако необходимо проделать большую работу по разработке спецификаций для технологий ИИ и порядка их публикации.

“Трудно предсказать, насколько отзывчивыми будут законодательство и регулирующие органы”, – сказала она. “Нам необходимо тщательно изучить технологии такого уровня”.

Хотя опасность ИИ вызывает серьезную озабоченность у большинства представителей отрасли, не все эксперты являются “вершителями судеб”. Многие также рады потенциальным возможностям применения этой технологии.

Питер Ванг говорит: “Я действительно считаю, что следующее поколение технологий ИИ может открыть огромный потенциал для процветания человечества в гораздо больших масштабах, чем мы видели за последние 100 или даже 200 лет”. “На самом деле, я очень, очень оптимистично смотрю на то, какое положительное влияние это может оказать”.