Введение
Цифровая трансформация государственного управления в Российской Федерации является одним из национальных приоритетов. Внедрение технологий искусственного интеллекта (ИИ) в деятельность министерств, ведомств и муниципалитетов открывает возможности для оптимизации процессов, анализа данных и повышения качества принимаемых решений [1; 2]. Стратегическим ориентиром в данном направлении выступает «Национальная стратегия развития искусственного интеллекта на период до 2030 года», которая определяет необходимость создания условий для эффективного взаимодействия государства, науки и бизнеса в этой сфере [3]. Однако успех цифровизации определяется не только наличием технологий, но и готовностью кадрового состава к их принятию и использованию.
Проблема формирования компетенций государственных и муниципальных служащих активно разрабатывается в современной науке, в том числе вопросы, связанные с отношением служащих к технологиям искусственного интеллекта и их готовностью к их применению [4; 5]. Поликультурные запросы, порожденные принципиально новыми возможностями работы с информацией, и технологические изменения диктуют необходимость непрерывного обучения и повышения квалификации, делая формирование цифровой компетентности в области ИИ насущной необходимостью [6]. Тем не менее, как свидетельствуют данные современных исследований, ключевым препятствием на пути этих процессов остается «человеческий фактор»: непонимание сути технологий, страхи перед неопределённостью, скептицизм сотрудников, которые склонны рассматривать ИИ либо как абстрактную угрозу, либо как «чёрный ящик», не заслуживающий доверия [7; 8].
Преодоление этого барьера требует целенаправленной работы по вовлечению служащих в процесс цифровой трансформации, что актуализирует проблему профессиональной подготовки и дополнительного образования государственных и муниципальных служащих, направленного на формирование у них цифровых компетенций в области ИИ.
Теоретическую базу исследования составляют работы в области компетентностного подхода в профессиональном образовании, в частности положения, обосновывающие формирование смысложизненных ориентиров на образование «через всю жизнь» [9, с. 270], а также современные подходы к компетентностной модели государственного служащего в условиях цифровизации [10-12]. Требования к компетенциям в сфере информационно-коммуникационных технологий государственных служащих представлены комплексом документов Министерства труда и социальной защиты Российской Федерации [13]. Однако в контексте цифровой трансформации особое значение приобретают не только базовые навыки работы с информационно-коммуникационными технологиями, а также развитие способностей осознанно, критически и эффективно применять специализированные инструменты, в том числе технологии искусственного интеллекта, и действовать в ситуациях неопределённости и быстро изменяющейся технологической среды.
Как отмечают Дубовик М. В. и Дмитриев С. Г., одним из барьеров на пути внедрения технологий искусственного интеллекта в экономической науке выступает феномен «черного ящика» – «неясная модель интеллектуального анализа данных и машинного обучения, внутренние данные которой либо неизвестны наблюдателю, либо известны, но не поддаются интерпретации людьми» [14, с. 8]. В связи с этим часто технологии искусственного интеллекта «демонизируют» или приписывают им «магические» свойства.
Важнейшим выводом, значимым для данного исследования, является утверждение о том, что формирование цифровой компетенции невозможно без качественной трансформации профессионального мировоззрения специалиста, в котором ИИ выступает не как «демонизируемый» или «магический» объект, а воспринимается как инструмент решения профессиональных задач. Дубовик М. В., Дмитриев С. Г. подчеркивают, что «общественное признание алгоритмов машинного обучения требует, чтобы конечные пользователи имели некоторое представление об их (алгоритмов) принципах и особенностях функционирования, что повышает значимость проблемы интерпретации» [14, с. 9]. Государственное управление, безусловно, относится к таким областям, которые требуют формирования у служащих способности критически оценивать результаты работы алгоритмов. Эта способность к критической оценке и интерпретации является одним из элементов структуры цифровой компетентности. Для ее системного описания принципиальное значение имеет понимание компетентности как интегративного качества личности.
Опираясь на исследование о компонентах карьерной компетентности, авторы выделили компоненты цифровой компетентности в области ИИ (ИИ-компетентности) государственных и муниципальных служащих (мотивационный, когнитивный, деятельностный, рефлексивно-оценочный) и дополнили их этико-правовым компонентом (табл. 1) [15]. Включение этико-правового компонента связано с аспектами обработки данных граждан. Данная структура учитывает специфику профессиональной деятельности государственных и муниципальных служащих в условиях цифровой трансформации и может служить основой для проектирования программ дополнительного образования.
Таблица 1
Компоненты цифровой компетентности государственных и муниципальных служащих в области искусственного интеллекта
|
Компонент |
Содержание |
Проявление в профессиональной деятельности |
|
Мотивационный |
Готовность к освоению новых технологий, открытость инновациям, стремление к повышению квалификации в области применения ИИ-инструментов |
Инициативное обучение применению ИИ, участие во внедрении ИИ-инструментов, передача опыта коллегам |
|
Когнитивный |
Понимание базовых принципов работы ИИ, знание терминологии, различение видов ИИ (слабый ИИ, сильный ИИ, нейросети, машинное обучение, языковые модели) |
Способность корректно ставить задачи, оценивать реалистичность ожиданий и ответов от ИИ-инструментов |
|
Деятельностный |
Умение использовать ИИ-инструменты в профессиональной деятельности, навыки работы с конкретными программами и платформами, включая требования к ИКТ-навыкам, зафиксированные в квалификационных требованиях Минтруда |
Применение ИИ-инструментов при подготовке документов, аналитике данных, обработке обращений граждан. |
|
Этико-правовой |
Понимание рисков, связанных с использованием ИИ, осознание ответственности за принимаемые с ИИ решения, знание требований к безопасности данных |
Соблюдение норм при работе с персональными данными, исключение возможной предвзятости или дискриминации |
|
Рефлексивно-оценочный |
Критическая оценка результатов работы ИИ, способность верифицировать полученные данные, осознание границ применимости технологий |
Анализ, перепроверка результатов, выявление некорректной работы ИИ-инструмента, корректировка собственных действий на основе данного анализа |
Примечание: таблица составлена авторами на основе [10-12].
Исследователи Панова Е. А. и Тарасова Е. Ю. уделяют особое внимание критической оценке, отмечая, что в условиях цифровизации «актуальность запроса на высокий уровень критического мышления приобретает особенную значимость», поскольку «достоверность сведений, сообщений, распоряжений в любом виде (текстовом, аудио- или видеоформате), поступающих от любой группы лиц (руководителей, коллег, граждан и т. д.), сегодня не гарантируется на 100%» [10, с. 72]. Авторы согласны с авторами Пановой Е.А., ТарасовойЕ.Ю., Дубовик М. В., Дмитриевым С. Г., что современный государственный и муниципальный служащий должен научиться правильно воспринимать новые технологии и взаимодействовать с ними, так как их параметры превышают способности человека в анализе и скорости обработке данных [10; 14]. Таким образом, цифровая компетентность государственных и муниципальных служащих в области искусственного интеллекта представляет собой интегративное качество личности, структура которого включает мотивационно-ценностный, когнитивный, деятельностный, этико-правовой и рефлексивно-оценочный компоненты. Выделенные компоненты цифровой компетентности в области искусственного интеллекта могут выступать индикаторами для разработки и оценки результативности программ дополнительного профессионального образования, направленных на подготовку кадров к работе в условиях цифровой трансформации.
Цель исследования заключается в анализе изменений в восприятии технологий ИИ сотрудниками органов власти после проблемной лекции-дискуссии и в выявлении педагогических условий, определяющих их готовность к внедрению ИИ в профессиональную деятельность.
Материалы и методы исследования
Эмпирическое исследование проводилось методом анкетирования до и после проведения лекции-дискуссии «Применение технологий искусственного интеллекта в государственном управлении».
Лекция-дискуссия проводилась на базе ХГУ им. Н. Ф. Катанова (февраль 2026 г.) и была организована таким образом, что анкетирования слушателей являлись ее неотъемлемой частью, позволяя зафиксировать динамику изменений в восприятии технологий ИИ непосредственно под влиянием образовательного воздействия.
В образовательном мероприятии приняли участие 36 сотрудников региональных и муниципальных органов власти. Структура лекции и ее связь с компонентами цифровой компетенции в области ИИ представлена в таблице 2. Лекция-дискуссия включала входное анкетирование, три содержательные части и анкетирование в конце лекции.
Таблица 2
Связь содержания лекции с компонентами цифровой компетенции в области ИИ
|
Этап лекции |
Содержание |
Направленность |
|
Входное анкетирование |
Диагностика исходного уровня: первые ассоциации с ИИ, уровень практического знакомства с технологиями, отношение к проблеме «черного ящика», восприятие этических рисков, гипотетическая реакция на внедрение ИИ-ассистента |
Определение исходного уровня сформированности когнитивного и деятельностного компонентов |
|
Историко-терминологическая часть |
Формирование понятийного аппарата, знакомство с базовыми принципами работы ИИ, видами ИИ (слабый и сильный ИИ, нейросети, языковые модели, машинное обучение) |
Развитие когнитивного компонента |
|
Этико-правовая часть |
Обсуждение проблем «черного ящика», дискриминации, ответственности, безопасности данных, авторских прав, этических аспектов применения ИИ |
Развитие этико-правового и рефлексивно-оценочного компонентов |
|
Прикладная часть |
Разбор реальных кейсов внедрения в регионах РФ |
Развитие мотивационного и деятельностного компонентов |
|
Итоговое анкетирование |
Опрос о том, изменилось ли отношение к проблеме «черного ящика», оценка препятствий для внедрения технологий, вопрос о дальнейших форматах поддержки, самооценка изменений отношения к ИИ |
Определение динамики изменений сформированности компонентов компетентности |
Примечание: составлено авторами.
Обработка данных включала сравнительный анализ ответов до и после лекции для определения динамики представлений респондентов об ИИ и оценки результативности лекции-дискуссии как одной из форм дополнительного образования, а также для выявления запросов потенциальных слушателей курса повышения квалификации в области ИИ.
Для оценки статистической значимости изменений использовался критерий для связанных выборок с дихотомическими переменными Макнемара, позволяющий определить значимость изменений ответов под влиянием образовательного воздействия [17]. Анализ проводился для показателя – отношение к проблеме непрозрачности ИИ («черный ящик»). Респонденты были разделены на две группы: негативная позиция (ИИ – да, «черный ящик») и позитивная позиция (ИИ – можно доверять и контролировать).
Обработка эмпирических данных осуществлялась на Python (версия 3.10). Для подготовки данных использовалась библиотека pandas, для расчета критерия Макнемара - пакет scipy.stats, включая функцию chi2_contingency. Визуализация выполнена с использованием библиотек matplotlib.pyplot и seaborn.
При подготовке текста статьи использовался генеративный ИИ-инструмент: deepseek для машинного перевода на английский язык названия, аннотации, ключевых слов, благодарностей. Все результаты перевода проверены и отредактированы авторами, конфиденциальные данные в публичные сервисы не передавались.
Результаты исследования и их обсуждение
Исходный уровень осведомленности аудитории характеризовался фрагментарностью и преобладанием бытовых ассоциаций о технологиях искусственного интеллекта, что свидетельствует о недостаточной сформированности когнитивного компонента цифровой компетентности в области ИИ. На вопрос о первой ассоциации с ИИ 42% (15 человек) воспринимали технологию как инструмент, выбрав слова «помощник», «оптимизация». Остальные респонденты демонстрировали бытовые ассоциации: 22% (8 человек) назвали «робота», 36% (13 человек) «ChatGPT». Показательно, что никто не связал ИИ с сокращением рабочих мест, что опровергает распространённый миф о доминировании этого страха.
Уровень практического знакомства с технологиями (операционный компонент) также оказался невысок. Треть опрошенных (33%, 12 человек) интересовались темой, но никогда не использовали ИИ; 28% (10 человек) пробовали 1–2 раза; 25% (9 человек) используют 1-2 раза в месяц; и только 14% (5 человек) являются активными пользователями.
Выявленный разрыв между интересом к публичному дискурсу и реальным опытом работы с технологией подтверждает актуальность программ повышения квалификации в области ИИ.
Наиболее показательным маркером изменений стало отношение к проблеме «черного ящика». До лекции лишь 11% (4 человека) были полностью не согласны с тезисом о непрозрачности ИИ, 36% (13 человек) скорее не соглашались, а 53% (19 человек) соглашались с оговорками, видя в этом проблему. После лекции картина качественно изменилась: 56% (20 человек) поняли, что непрозрачность можно обеспечить контролем (развитие рефлексивного компонента), 36% (13 человек) убедились, что проблема преувеличена, и только 6% (2 человека) сохранили скептицизм, и 3% (1 человек) «запутался еще больше».
Обработка результатов представления об ИИ как о «черном ящике» с использованием критерия Макнемара подтвердила статистически значимое изменение после лекции-дискуссии (
,
,
). Таким образом, лекция-дискуссия оказала значимое влияние на изменение отношения слушателей к проблеме непрозрачности алгоритмов ИИ. Полученные данные подтверждают вывод Дубовик М. В. и Дмитриева С. Г. о том, что преодоление синдрома «черного ящика» связано не с отказом от использования алгоритмов, а с формированием у пользователей способности к контролю их работы и правильной интерпретации [15].
Наиболее сильное воздействие оказал прикладной блок лекции, посвященный региональным кейсам. Распределение ответов о наиболее интересном материале оказалось практически равномерным: по 31% (11 человек) выбрали тему «Использование ИИ в государственных органах» и вариант «всё было интересно»; 25% (9 человек) выделили историко-терминологическую часть; 11% (4 человека) отметили возможность обучения применению ИИ в университете. Полученные данные подтверждают высокий запрос служащих на конкретные, практически ориентированные форматы обучения, что согласуется с выводами Шалиной О.И. и Шеиной А. И. [11].
Отношение к внедрению ИИ также демонстрирует потенциал для формирования мотивационного компонента. На вопрос о реакции на приказ использовать ИИ-ассистента 22% (8 человек) ответили, что откажутся, сославшись на безопасность; 42% (15 человек) готовы использовать для черновиков с перепроверкой; 31% (11 человек) готовы пройти обучение и применять активно; а 6% (2 человека) готовы стать «амбассадорами» внедрения ИИ. При этом 81% (29 человек) считают, что государственный служащий обязан понимать основы работы ИИ, и никто не ответил на этот вопрос отрицательно.
Отметим, что большинство респондентов тяготеет к стратегии управления ИИ (использование с перепроверкой, обучение и активное применение). Это коррелирует с выводами исследователей Пановой Е. А., Тарасовой Е. Ю., Дубовик М. В., Дмитриева С. Г. о необходимости формирования культуры конструктивного взаимодействия, а также с положением о том, что невозможно полагаться исключительно на «черный ящик», упуская роль человека [10; 14].
Обсуждение рисков в этико-правовой части лекции-дискуссии позволило выявить и структурировать профессиональные страхи государственных служащих. До лекции 56% (20 человек) видели умеренные риски (решаемые), 28% (10 человек) – серьезные, и лишь 8% (3 человека) – очень серьезные. После лекции структура ответов о препятствиях к внедрению качественно изменилась: на первый план вышли организационно-педагогические условия, а не технологические страхи. Наиболее значимыми барьерами респонденты назвали отсутствие официальных регламентов (36%, 13 человек) и боязнь утечки данных (25%, 9 человек). Показательно, что страх ошибки и недоверие к результатам не отметил никто, что свидетельствует о преодолении иррациональных опасений в ходе образовательного мероприятия. Непонимание технологии ИИ как барьер к использованию указали 22% (8 человек), что соотносится с данными Овчинникова С. С. о недостаточном уровне цифровой грамотности части государственных служащих [12].
После лекции-дискуссии аудитории задали вопрос о форматах поддержки. Наиболее востребованным форматом стало «обучение на реальных задачах» (33%, 12 человек), что коррелирует с необходимостью использования процессуальных педагогических технологий. Далее следуют запрос на «четкие регламенты сверху» (22%, 8 человек), доступ к инструментам (19%, 7 человек), подробные инструкции (14%, 5 человек) и примеры успешных коллег (11%, 4 человека).
Самооценка слушателями уровня понимания содержания лекции-дискуссии подтверждает эффективность мероприятия: 44% (16 человек) чувствуют, что понимают достаточно для обсуждения ИИ и готовы попробовать; 22% (8 человек) готовы использовать ИИ в работе; 6% (2 человека) готовы обучать других. Лишь 6% (2 человека) не почувствовали прогресса, а 22% (8 человек) отметили, что стало понятнее, но применять пока не готовы.
Заключение
Анализ данных анкетирования показал, что государственные и муниципальные служащие готовы к обучению и применению инструментов ИИ. В ходе исследования авторы пришли к следующим выводам.
1. Результативность проблемной лекции-дискуссии как образовательной технологии, способной не просто информировать, но и менять картину мира слушателей в области применения технологий ИИ. Состоялся переход от бытовых ассоциаций («робот», «чат-бот») к пониманию ИИ как инструмента решения профессиональных задач.
2. Реализация готовности к применению ИИ требует организационно-педагогических условий: построение обучения на решении задач, имитирующих реальный контекст профессиональной деятельности; предоставление слушателям доступа к современным ИИ-инструментам и платформам, создающее основу для формирования практических навыков; организация обмена опытом, обсуждения успешных практик и разбора проблемных ситуаций.
3. Результаты исследования свидетельствуют, что создание Регионального центра цифровизации и искусственного интеллекта на базе университета выступит адекватным ответом на выявленные образовательные потребности. Центр может реализовать образовательную, консультационную и интеграционную функции: обеспечение постоянно действующей площадки для практико-ориентированного обучения; адаптация технологических решений и разработка образовательного контента с учетом специфики конкретного региона; привлечение к образовательному процессу преподавателей и студентов университета, а также представителей ИТ-компаний, что будет способствовать синтезу академических знаний и актуальных технологических компетенций специалистов-практиков.
Представленные выводы имеют практическое значение для организации дополнительного профессионального образования при развитии цифровых компетенций в области искусственного интеллекта.
Слушатели прошли путь от «любопытства» и «опаски» до состояния «понимаю и хочу попробовать, дайте инструмент и регламент», что является идеальным результатом образовательного мероприятия в системе дополнительного профессионального образования. Это подтверждает необходимость смены парадигмы: от разового информирования о технологиях – к созданию непрерывной образовательной экосистемы, обеспечивающей формирование и развитие цифровых компетенций.
Университеты, обладающие кадровым и научным потенциалом, могут стать интеграторами этого процесса, привлекая бизнес-партнёров (ИТ-компании) к разработке адаптированных под региональную специфику образовательных программ и выступая базой для непрерывного профессионального образования государственных и муниципальных служащих в сфере искусственного интеллекта. Перспективы дальнейших исследований связаны с разработкой и апробацией конкретных программ повышения квалификации, направленных на формирование выделенных компонентов цифровой компетентности.
Конфликт интересов
Благодарности
Библиографическая ссылка
Янченко И.В., Эклер Н.А. РАЗВИТИЕ ЦИФРОВЫХ КОМПЕТЕНЦИЙ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА У ГОСУДАРСТВЕННЫХ И МУНИЦИПАЛЬНЫХ СЛУЖАЩИХ: ЭМПИРИЧЕСКОЕ ИССЛЕДОВАНИЕ // Современные проблемы науки и образования. 2026. № 3. ;URL: https://science-education.ru/ru/article/view?id=34535 (дата обращения: 26.04.2026).
DOI: https://doi.org/10.17513/spno.34535



