Дмитрий Маркушевский,

Искусственный интеллект (ИИ) — укоренившийся тренд последних лет. В прошлом веке он овладел умами фантастов и технологов-энтузиастов, а теперь дает миллиардам людей надежду на повышение качества жизни.

Фото из личного архива
Фото из личного архива. Дмитрий Маркушевский — академический директор ПИУ «Центр исследования общественного управления СИМПА» (брэнды «Школа молодых менеджеров публичного администрирования», «Исследовательский центр BIPART»). Закончил БГУИР по специальности «Искусственный интеллект», аспирантуру Института философии НАН Беларуси, программу ПРООН и NISPA для советников по стратегическим вопросам; повышал квалификацию в Университете Лунда (Швеция) и Высшей школе экономики (РФ). Консультант и руководитель проектов в области демократического управления ООН в 2003—2012 гг.

Уже виден значительный эффект ИИ для бизнеса и общества: интеллектуальные информационные технологии с успехом применяют в ритейле и безопасности, медицине, финансах, образовании, сельском хозяйстве, транспорте и навигации. Мы можем представить ближайшее будущее с «умными» вещами и автономными машинами, всевозможными доступными и кастомизированными услугами, оптимизированными и автоматизированными бизнес-процессами в частной и государственной сферах.

Небезразличные специалисты в области информационных технологий, коммуникаций и управления проектами бесплатно отдают свое время и навыки на благо общества. Одной из основных задач гражданских технологов является поддержка правительства в предоставлении более качественных услуг своим гражданам.

В 2016 и 2017 годах мне выпала честь быть ментором на GovTech хакатонах в IMAGURU, и я был особенно рад сотрудничать с командами, которые разрабатывали решения общественно важных проблем, используя интеллектуальные технологии. А буквально на днях на глобальном саммите сети Code for All — Heroes of Tech в Бухаресте СИМПА с коллегами и партнерами из разных стран обсуждала работу в сфере новых гражданских технологий, ценность которой эквивалентна многим миллионам долларов.

Вместе с тем уровень знаний и осведомленности о потенциале ИИ значительно варьируется, что порождает страхи и опасения, которые порой не лишены оснований. Как любая мощная технология (например, термоядерный синтез), ИИ также несет риски и поднимает сложные вопросы в области безопасности, надежности и мониторинга; затрагивает социально-экономические и этические проблемы.

В своем докладе о стратегии ООН в отношении новых технологий Генеральный секретарь организации Антониу Гутерреш отмечает, что они могут ускорить достижение целей устойчивого развития, однако могут быть использованы и в злонамеренных целях или иметь непредвиденные негативные последствия.

Социальные сети позволяют нам находить единомышленников во всем мире, поощряя свободу слова и творческий потенциал человека. В то же время они способствуют разжиганию ненависти, этнической и политической поляризации и вербовке террористов. Автоматизация, ИИ и робототехника предлагают перспективы ускоренного экономического роста, но также могут усиливать неравенство внутри стран и между ними и способствовать безработице. Нейронные сети и глубокое обучение открывают возможности мгновенного перевода, который сблизит разные культуры. Однако они также могут усвоить и усилить наши предрассудки, что отдалит людей друг от друга. Развитие интернета и «Интернета вещей» открывает большие экономические возможности, но при этом возникают вопросы, касающиеся безопасности и защиты от несанкционированного проникновения и незаконного наблюдения.

Большой резонанс среди ученых, разработчиков, политиков, юристов, правозащитников и широкой международной общественности вызвал проект по созданию системы надзора за гражданами и «рейтинга общественной надежности» в Китае и кампания в социальных сетях для влияния на ход и результаты выборов в США.

Эти кейсы показывают, насколько хрупким оказывается баланс в отношениях человек-государство, и насколько уязвима архитектура международной безопасности, в большой мере основанная на соблюдении принципа взаимности.

Назрела необходимость выработки стандартов и правил для новых технологий, основанных на уважении естественных прав человека — на жизнь, свободу и равенство.

Необходимо учитывать, что многие технологии разрабатываются и используются в инфраструктурах и сферах деятельности, выходящих за юрисдикцию какого-то одного государства. Решения, влияющие на повседневную жизнь людей, появляются не в законах, а в виде программного кода, и реализуют их не избранные должностные лица, а ученые и новаторы в частном секторе. Их действия будут давать о себе знать на протяжении жизни нескольких поколений.

Разработка программного обеспечения, в том числе для целей ИИ, предполагает возможность ошибок и других проблем, которые могут быть исправлены ​​позже. Однако, когда ставки становятся выше, а технологии мощнее, ошибки могут нести серьезные последствия.

Например, мосты не вводят в эксплуатацию до выполнения всех требований безопасности. Так же необходимо поднять планку развития ИИ. Высокие стандарты уже существуют в определенных отраслях, например, в медицинском или авиационном программном обеспечении. Эти требования должны охватывать не только надежность, гибкость и эффективность в решении основной задачи, но и этические и социальные аспекты.

Было бы правильно начать с прозрачности алгоритмов ИИ и процессов, чтобы регуляторы могли обеспечить их безопасность, уважая авторские права на продукт. Кроме того, должна быть прозрачность данных, которые использовались для обучения. Это, очевидно, расстроит разработчиков, однако даст хорошую гарантию от плачевных последствий в будущем.

Новые стандарты и правила не должны становится непреодолимым препятствием для развития ИИ. В общем виде ситуация аналогична требованиям к промышленному производству по защите окружающей среды.

Важно наладить сотрудничество заинтересованных сторон для выявления, мониторинга проблем в отношении ИИ и их адекватного и своевременного решения. Именно совместный и всеобъемлющий подход приведет к усилению социальной вовлеченности, доверия и поддержки дальнейшей разработки и использования ИИ.

Площадкой для продвижения, стимулирования и развития ИИ на благо общества и экономики в нашей стране может стать Белорусская ассоциация искусственного интеллекта, как и центральной платформой для обмена идеями, передовыми методами и возможностями ИИ. Гражданское общество, бизнес и СМИ сделают ценный вклад во взвешенную информированную дискуссию и повышение осведомленности об ИИ.

«Госвопрос» — цикл публикаций, в которых TUT.BY и коллеги из СИМПА постараются без воды и шор рассказывать об актуальных вопросах госуправления в нашей стране и предлагать решения, основанные на мировом опыте.

{banner_819}{banner_825}
-10%
-30%
-30%
-30%
-10%
-10%
-30%
-10%
-20%