Социо-гуманитарные аспекты искусственного интеллекта - Партия Дела
Присоединиться

Помимо участия на форуме «Армия — 2021» в конференции по вопросам информационного противоборства в условиях ментальной войны мне посчастливилось поучаствовать в качестве эксперта еще на одной конференции, которая была посвящена вопросам социальных и гуманитарных аспектов искусственного интеллекта. Эта конференция прошла 22 августа в рамках международного военно-технического форума «Армия-2021», в подмосковной Кубинке. Организатором конференции выступило Министерство Обороны Российской Федерации и Сколковский институт науки и технологий.

Вообще в этом году Минобороны РФ решило уделить достаточно много внимания вопросам искусственного интеллекта и аспектам информационной безопасности. Помимо гуманитарных и социальных аспектов безопасности искусственного интеллекта, нашу армию интересуют вопросы развития и применения технологий ИИ в военных приложениях, аспекты акселеризации ИИ, вопросы применения ИИ в системах цифровой экономики, вопросы подготовки кадров и решение задач с использование технологий ИИ, а также другие вопросы применения технологий ИИ, которые не вошли в публичную программу Конгресса.

От лица Министерства Обороны РФ модератором конференции и ее ведущим выступил Советник Министра Обороны Ильницкий Андрей Михайлович. Кроме того, в качестве спикеров на конференции выступили президент InfoWatch Касперская Н.И., зав кафедры философского факультета МГУ Брызгалина Е.В. эксперт Сколковского института науки и технологий Цветков Ю.Д., руководитель управления научно-исследовательской деятельности Криминалистического центра Следственного комитета РФ Бессонов А.А., директор по развитию технологий искусственного интеллекта, Яндекс Крайнов А.Г., управляющий партнер и владелец «Ашманов и партнёры» Ашманов И.С., Президент «Вижн Медиа Центр» Попова Н.В., и многие другие.

Вообще на этой конференции был очень представительный состав участников, от практиков и разработчиков систем искусственного интеллекта, до философов и журналистов. И на мой взгляд это правильно. Для того чтобы выработать общий подход по гуманитарным аспектам развития и применения технологий ИИ в России, нужно делать срез мнений не только с профильных экспертов, но и других заинтересованных лиц, включая политиков, чиновников и даже военных экспертов.

В ходе своих выступлений участники конференции попытались очертить ключевые области, требующие экспертно-аналитического содействия, в целях формирования государственной политики в области ИИ в социо-гуманитарной сфере. При этом модераторы конференции сфокусировали дискуссию на раскрытии и развитии человеческого потенциала, формировании патриотических и общественно-центричных идеологических установок у молодежи, совершенствовании образовательных программ в области ИИ и сквозных технологий, ведущих российских технических ВУЗах;

Лично намой взгляд, эта конференция позволила обсудить вопросы защиты традиционного уклада российского общества от вредоносного воздействия ИИ-технологий (вопросы биоэтики и психологии), смоделировать возможные сценарии будущего режима нормативно-правового регулирования ИИ в России и мире, сформулировать основополагающие принципы соответствия ИИ-систем ключевым критериям концепции «доверенного ИИ» (безопасные, устойчивые к внешнему воздействию и объяснимые для человека технологии на базе ИИ должны стать основой цифрового будущего России и ее народа).

Информационное манипулирование и узаконенный шпионаж

Если говорить о том, что конкретно говорилось и озвучивалось спикерами на конференции, то участники обсудили актуальность формирования политических, правовых, социокультурных, а также цивилизационных контуров государственной политики в области развития и применения систем ИИ, включая: антологические, биоэтические и медикоантропоморфические проблемы, а также философские, идеологические и культурологические вопросы. Обсудили так называемый феномен «цифрового суррогата», применение ИИ в писательском и журналистском деле, когда с использованием подобных технологий формируется эрзац-контент, а также использование ИИ для «корректировки» информационного поля и манипулирования общественным сознанием.

В частности, модератор конференции Андрей Ильницкий в своём выступлении обратил внимание участников и спикеров на простой факт, который просто лежит на поверхности обозначенной темы: мы на войне, перед нами противник. По его мнению, искусственный интеллект — это технология двойного назначения или попросту военная технология. И она широко применяется сегодня против России в ходе так называемых нетрадиционных гибридных боевых действиях, составной частью которых, в том числе, является и ментальная война. Смысл действий противника достаточно прост, подменить с помощью информационного воздействия базовые ценности и цивилизационные смыслы народа. Управляя информационной повесткой, население целых стран можно сподвигнуть к принятию решений, принципиально противоположных их истинным интересам и потребностям. Эту опасность нельзя недооценивать — полагает Ильницкий.

Между тем обращение с ИИ в самой России чревато многочисленными рисками. ИИ внедряют в систему управления с излишним энтузиазмом, как будто руководствуясь принципом «надо ввязаться в драку, а там посмотрим». Необходимо в ближайшее время формировать российскую философию и концепцию интернета и ИИ. Иначе мы упустим управленческий контроль и затем проиграем страну — также добавил Советник Министра обороны Андрей Ильницкий.

Что касается опасности имитации институтов, второй модератор дискуссии Наталья Касперская заметила: по некоторым данным, в Китае сегодня до 90% научных (!) статей пишутся ботами и являются в некотором смысле фейками. А государства и отдельные университеты всё ещё меряются рейтингами цитируемости своих учёных…

«В последнее время очень много говорят об искусственном интеллекте. У нас есть и национальная стратегия по развитию искусственного интеллекта, и отдельный федеральный проект „Искусственный интеллект“ в рамках нацпрограммы „Цифровая экономика РФ“. И вообще — искусственный интеллект сейчас везде. Но что вообще искусственный интеллект значит для человечества, люди не очень задумываются. При планировании этой секции мы с Андреем Михайловичем Ильницким, советником министра обороны РФ, естественно, хотели поднять и острые вопросы рисков использования искусственного интеллекта, и вопросы того, как вообще искусственный интеллект может изменить жизнь человечества в будущем. Потому что уже сейчас мы видим довольно много серьезных изменений», — поделилась мнением президент ГК InfoWatch, председатель правления АРПП «Отечественный софт» Наталья Касперская.

Вообще на конференции достаточно много говорили про научные рейтинги и научную метрику в разрезе Scopus или индексов Хирша, что это по своей сути узаконенный механизм получения разведывательных данных из открытых источников. Вспоминали пресловутую систему «Антиплагиат». Причем в этом случае, Россия сама себя обязала поставлять разведывательную информацию иностранным спецслужбам.

Риски, вызовы и угрозы

Сказать, что Россия отстает от Запада в деле развития ИИ, было бы неправильно. Совсем наоборот: сегодня русский язык наряду с китайским и английским является одним из самых распространённых в Мировой паутине, а наши достижения в ряде сфер опережают конкурентов. Однако мощные достижения не отменяют, а, увы, усиливают риски внедрения ИИ в многочисленных формах во все сферы нашей жизни.

Первая группа рисков может считаться внутренней — её порождают в том числе российские разработки и их авторы. Впрочем, эти риски — одни и те же для всех развитых стран.

О них говорил Максим Фёдоров, вице-президент Сколковского института науки и технологий в области искусственного интеллекта и математического моделирования. По его мнению, нельзя забывать о том, что сегодня «порог входа в технологию» ИИ уже очень низкий — по факту технологии ИИ доступны даже школьникам, причём не только как пользователям, но и как разработчикам. Между тем бесконтрольное использование ИИ чревато возможностью использования этих технологий для нарушения прав человека.

С этой сентенцией согласится каждый, кто имел дело с утечкой важных для него данных в каком-нибудь странном направлении — например, к мошенникам. Тотальная возможность анализа больших данных равнозначна возможности тотальной слежки и потери права на частную жизнь, на личную тайну.

Одновременно мы видим, как нарастает другая опасность: общение с ИИ подменяет современному человеку традиционные социальные связи. Маскирует тотальное одиночество. А пока это происходит, человек из субъекта превращается в объект — в источник данных и денег для совершенно бездушных маркетологов. Бездушных потому, что они тоже уже не люди, а ИИ.

Вторая группа рисков проистекает из взаимодействия с нашими западными партнёрами. Они нам совсем не друзья и, помимо прочего, стремятся навязать нам собственные законы.
Об этом на конференции говорил Алексей Сажин, первый секретарь постоянного представителя РФ при Совете Европы. Он отметил, что уже сегодня у ИИ могут появляться свойства, не заложенные разработчиком. ИИ может использоваться для дискриминации пользователей по различным критериям.

С этим легко согласится каждый, кто имел дело с западными социальными сетями, подконтрольными транснациональным корпорациям: по факту там уже введена цензура, направленная против традиционных ценностей и русских патриотов.

Между тем Запад разрабатывает собственную систему регулирования в области ИИ, которую будет навязывать России на государственном уровне. Противостоять этому вынуждена уже сегодня отечественная дипломатия.

Человекоподобные маргиналы

В ходе работы конференции Игорь Ашманов высказал свой старый тезис, что понятие «искусственный интеллект» (ИИ) это неточный перевод англоязычного термина artificial intelligence, «искусственное понимание». Оно не подразумевает умения мыслить, осознавать себя, но лишь умение адекватно реагировать на реальность. Попытки скопировать мозг человека, воплотив его в кремнии и электронах, — маргинальное и тупиковое направление. Также, как и попытки придать роботу внешнюю человекоподобность, антропоморфность.

Что касается взаимодействия России и Запада в области искусственного интеллекта, то Игорь Ашманов, член Совета по правам человека при президенте России, был ещё более категоричен: нужно понимать, заявил он, что мы с ними идём в разных направлениях. Они пытаются навязать нам чужие ценности.

То, что происходит сегодня, следовало бы охарактеризовать как «галопирующую цифровизацию». И улучшения, которые приносит эта цифровизация всего и вся, — кажущиеся.

Ковровую слежку за каждым человеком оправдывают безопасностью. Но как это выглядит на практике? Казанского стрелка, пока он шёл по улице с ружьём, видело и распознало множество камер, — говорит Ашманов. Кому это помогло? Между тем пока мы рассуждаем об удобствах новых сервисов, тихой сапой возникает новая цифровая власть — и это уже не чиновники, это тихие, незаметные разработчики новых программ ИИ. Мы на пороге «власти цифровых клерков».

Лозунги «цифровой экономики» напоминают лозунги перестройки и «ускорения» конца 1980-х, замечает Ашманов. А на практике они ведут к возможности произвести государственный переворот под прикрытием цифровизации. Одного этого риска достаточно, чтобы остановиться и подумать: нужна ли кампания по цифровизации и внедрению ИИ во всё и вся?

Заместитель руководителя аналитического центра при правительстве России Сергей Наквасин на конференции заявил, что уже в октябре под эгидой правительства будет проведён форум, на котором специалисты примут российский кодекс этики искусственного интеллекта. Наквасин подчеркнул, что это должна быть христианская этика — и это единственный вариант развития, при котором ИИ может быть полезным и безопасным.

Если разработчики ИИ и те, кто внедряют его в деятельность органов государственной власти, не станут руководствоваться этими принципами, все риски, о которых шла речь на конференции, из области рассуждений перейдут в реальность. Без христианской морали ИИ станет орудием разрушения государства, общества и самой России.

Что с того?

Участники конференции отметили высокую актуальность поднятых тем, необходимость их продвижения на уровне внешней и внутренней политики России, с целью создания системы, обеспечивающей эффективное и безопасное развитие технологий искусственного интеллекта. По их мнению, широкое внедрение технологий искусственного интеллекта, способно обеспечить серьезные преимущества государству, корпорациям и обществу сразу во многих сферах.

В то же время перевод экономических и социальных отношений в стране на новый технологический уклад несет в себе не только значительные возможности, но и серьезные риски, связанные с влиянием высоких технологий на разные сферы жизни: социальную, гуманитарную, правовую. Участники конференции определили большую группу технологических, социальных, правовых, криминальных и иных рисков использования технологий искусственного интеллекта. Среди них отдельно выделяются риски использования иностранных платформ и ограничения, связанные с отсутствием единой государственной стратегии в ИИ, учитывающей национальную безопасность страны. Другие риски — размытие границ между человеком и машиной — способны подорвать саму основу человечества как вида.

Эти риски и угрозы усугубляются тем, что техническое и нормативно-правовое регулирование технологий ИИ в России и мире серьезно отстают от темпов развития и внедрения таких технологий в экономике, государственном управлении и обществе в целом. Главной задачей участники конференции считают формирование собственной российской идеологии и стратегии развития технологий ИИ в упреждающем темпе.

Кроме того, многие участники мероприятия отметили необходимость законодательного закрепления крайне важного при использовании систем ИИ принципа: конечное решение должно оставаться за человеком и приниматься с учетом этических и моральных норм российского общества.

По общему мнению участников конференции, главной задачей всех сторон, заинтересованных в эффективном и безопасном развитии российского сектора ИИ, должно стать определение четких и безопасных рамок дальнейшей цифровой трансформации страны с фокусом на защиту ее суверенитета, человеческого, научного и культурного потенциала по формуле «технологии для людей», а не наоборот.

По итогам конференции было вынесено несколько рекомендаций. Среди них — строгая государственная экспертиза проектов, подразумевающих использование технологий ИИ; рост статуса высшего и среднего образования в целях технологического прорыва; обеспечение высокой информационно-психологической и ментальной устойчивости общества в условиях цифровизации; комплексное исследование использования ИИ-технологий против РФ (Минобороны РФ и другие заинтересованные ведомства); возможность создания координирующего органа по проблематике ИИ для консолидации усилий госсектора, научно-экспертного и делового сообщества по защите цифрового суверенитета РФ; формирование межотраслевого пула российских экспертов в сфере ИИ при Министерстве Обороны, его привлечение к решению актуальных проблем внедрения и регулирования ИИ в России и мире.

И в заключении хотелось бы добавить. Любая технология, будь то новая технология плавки металла или искусственный интеллект, это новая возможность. Но любой новой технологией нужно уметь пользоваться и грамотно распоряжаться.

Приведу небольшой пример.

Представьте себе гипотетическую ситуацию.

Вы просыпаетесь и видите первые сообщения в социальных сетях о том, что некое государство объявило войну нашей стране. Через несколько часов все новостные организации сообщают об этом по всему миру.

Первые шаги этой войны производились не пулями или бомбами, а нажатием клавиш компьютера.

Противник снял маску демократии и ведет продвинутый бой — не тот вид гибридной войны, который мы видели в различных сценариях «цветной революции» по всему миру, а разновидность открытой враждебности, которую мы не видели до этого времени.

В результате действий противника мы понести такие потери, как:

  • Потеря большей части нашего стратегического оружия;
  • Потеря доступа к спутникам СПРН, видовой разведки и навигации;
  • Потеря коммуникационных магистралей передачи данных;
  • Потеря доступа к точному времени.

У всего этого есть одно общее. Все это основано на цифровых технологиях, которые не смогли адаптироваться к серьезным вызовам и угрозам.

Вопрос в том, как нам укрепить наше преимущество и предотвратить подобный сценарий?
Этот гипотетический сценарий взят из одного фантастического романа.

Хотя сама история, описанная в этой книге — отличная выдумка, тем не менее эта фантастическая история несет важную информацию об той ответственности, которую мы несем, полагаясь на цифровые технологии и искусственный интеллект. Вывод заключается в том, что современные технологии должны постоянно развиваться, не только улучшая быт человека, но и должны учитывать фактор безопасности. Наши противники всегда ищут способы опередить нас.

Чтобы избежать подобного кошмарного сценария, как это было описано в книге, Россия должна выработать надлежащие процедуры, указывающие — как на развитие цифровых технологий, включая технологии искусственного интеллекта, так и на то, как мы эти технологии должны использовать. Поэтому, аэрокосмическая и оборонная промышленность нашего государства должны не только инвестировать в новые технологии и развивать их, но и уделять особое внимание ключевым приоритетам:

  • Безопасность и устойчивость к внешнему воздействию
  • Революционная простота и надежность
  • Быстрые и верные решения
  • Тесная координация и совместная работа

Возвращаясь к вопросу «как мы укрепим наше преимущество с использованием цифровых технологий?».

Речь идет о том, что для этой работы технологий сегодняшнего дня будет недостаточно. Именно понимание того, что может быть в будущем, какие технологии появятся, как и зачем мы их будем использовать, именно это будет обеспечивать безопасность России и наше преимущество в будущем.

В блогах публикуются оценочные суждения, выражающие субъективное мнение и взгляды автора, которые могут не совпадать с позицией Всероссийской политической партии «ПАРТИЯ ДЕЛА»