|
Юрій КОРОЛЮК, доктор наук з державного управління, професор Чернівецького торговельно-економічного інституту ДТЕУ, експерт CO «UMDS» Сучасний рівень розвитку інструментів штучного інтелекту свідчить про те, що вони можуть бути, і навіть вже є, ефективною допомогою для посадовців у їхній щоденній роботі. Інструменти штучного інтелекту допомагають оптимізувати рутинну роботу, аналізувати й узагальнювати великі обсяги службової і нормативної інформації, а також створювати текстові та графічні матеріали у відповідь на запити користувача. Для їх використання не потрібне спеціальне обладнання – достатньо смартфона або комп’ютера з доступом до Інтернету. Для виконавчих органів територіальних громад це особливо актуально, адже у невеликих громадах один посадовець часто виконує кілька функцій. Користувальницької масовості набувають програмні рішення штучного інтелекту у вигляді дешевих хмарних онлайн-сервісів широкого призначення, наприклад ChatGPT та Grok. Дані програми є лояльними до запитів користувача і його технічної підготовки. Головне вміти сформулювати більш-менш зрозумілий текстовий, голосовий чи графічний запит. ChatGPT добре підходить для структурованих завдань: він генерує тексти, узагальнює дані, створює шаблони документів, готує чернетки звітів, відповіді на запити громадян чи аналітичні записки. Він допомагає автоматизувати підготовку матеріалів, які раніше займали багато часу. Grok зручний для роботи з актуальними трендами та відкритими даними: завдяки доступу до реального часу з X (Twitter), він швидко витягує свіжі обговорення, скарги чи локальні новини, допомагає відстежувати громадську думку та виявляти потенційні проблеми на ранній стадії. Також Grok досить точно і комплексно вирішує задачі планування і прогнозування на базі статистичних показників. Такого типу програмні рішення дозволяють вирішувати множину завдань актуальних для посадових осіб: - створювати тексти для офіційних листів, оголошень, соціальних мереж громади; - аналізувати відкриті дані (наприклад, бюджет, скарги, тенденції); готувати прості рекомендації для мешканців (про послуги, субсидії, реєстрацію); - виконувати юридичну оцінку управлінських рішень; - шукати та узагальнювати інформацію з законодавства чи відкритих джерел; - генерувати ідеї для вирішення місцевих питань (планування, комунальні платежі, освіта) тощо. Водночас на центральному рівні відсутні чіткі унормовані механізми впровадження та використання таких інструментів у місцеві органи публічного управління. Це суттєво підвищує відповідальність посадових осіб і потребує детального врахування можливих ризиків їх застосування. Як правило, посадові особи керуються рекомендаційними матеріалами: Інструменти штучного інтелекту. Гайд для ОГС. – Київ, 2024. – 51 с.; Поради з відповідального використання штучного інтелекту публічними службовцями. Мінцифри. НАДС. ВШ ПУ. – Київ, 2025. – 45 с.; Словник термінів у сфері штучного інтелекту / упорядники: Чумаченко Д., Мішкін Д., Андрієнко О., Краковецький О., Турута О., Дубно О., Хрущова Д., Кобрін А., Авдєєва Т., Кравець І., Герасимяк В., Шабанов О., Бистрицька А. Київ: Міністерство цифрової трансформації України, 2024. 37 с. та ін. Ці рекомендаційні матеріали виділяють дві принципові проблеми таких інструментів: 1. Ризики використання недостовірної або неточної інформації, згенерованої інструментами штучного інтелекту; 2. Можливе порушення вимог щодо захисту персональних даних та конфіденційної інформації. Щодо першого. Приклади практичного використання генеративного штучного інтелекту демонструють ризики отримання недостовірної інформації. Зокрема, відомі випадки, коли адвокат в США подав до суду документи з вигаданими судовими прецедентами, згенерованими ШІ, що призвело до дисциплінарних санкцій (www.cnbc.com/2023/06/22). Подібні приклади, на жаль вже є у вітчизняній судовій практиці. Аналогічні проблеми фіксувалися і під час підготовки урядових документів в США, де виявлялися неіснуючі наукові джерела, а також при використанні систем ШІ у соціальній роботі, де автоматично створені записи містили помилки або некоректні формулювання (Федеральний звіт “Make America Healthy Again” за 2025 рік). Таким чином, ризик так званих «галюцинацій» штучного інтелекту – генерування правдоподібної, але фактично недостовірної інформації є надзвичайно високим. Однак найбільшим ризиком програм штучного інтелекту є вказана у другому пункті інформаційна безпека. Так, у 2023 році компанія Samsung Electronics (samsung.com) заборонила використання генеративного ШІ після того, як співробітники завантажили до ChatGPT внутрішній програмний код і службові дані для аналізу. Ця інформація потрапила до системи навчання моделі, що створило ризик розкриття конфіденційних корпоративних даних. Цей випадок став одним із найбільш цитованих прикладів ризику, коли користувачі передають службову або персональну інформацію зовнішнім AI-сервісам. Інший приклад: у 2023 році регулятор із захисту даних Італії Garante per la protezione dei dati personali (італійський орган захисту даних Garante) тимчасово обмежив роботу ChatGPT, аргументуючи це ризиками обробки персональних даних без достатніх правових підстав та прозорості. У багатьох країнах органи державної влади обмежують використання публічних AI-сервісів для роботи з документами, що містять персональні дані або службову інформацію, оскільки введені дані можуть: - зберігатися на сторонніх серверах; - використовуватися для навчання моделей; - потенційно бути відтворені у відповідях системи. Для вітчизняних реалій використання хмарних програм штучного інтелекту на прикладі ChatGPT та Grok у разі введення в них публічним службовцем персональних даних громадян чи службової інформації – є фактично актом обробки персональних чи службових даних, передача їх третій стороні, можлива передача за кордон і має ризик збереження даних на серверах провайдера. Дані дії підпадають під порушення норм Законів «Про захист персональних даних», «Про інформацію», «Про доступ до публічної інформації», «Про державну таємницю», «Про захист інформації в інформаційно-комунікаційних системах» та ін. і можуть нести правові наслідки як для посадової особи так і її керівництва. Зважаючи на ці ризики, посадовими особами місцевих органів державної влади та місцевого самоврядування варто дослухатися рекомендацій щодо безпечного використання систем штучного інтелекту: 1. Доцільно застосовувати інструменти штучного інтелекту для підготовки чернеток документів, пошуку інформації, узагальнення відкритих даних та формування попередніх аналітичних матеріалів. Водночас результати, сформовані системами ШІ, повинні обов’язково перевірятися користувачем перед їх використанням у службовій діяльності або включенням до офіційних документів. 2. При використанні систем штучного інтелекту посадові особи повинні уникати введення до таких сервісів персональних даних громадян, службової інформації, внутрішніх документів органів влади або інших відомостей з обмеженим доступом. Особливу увагу необхідно приділяти дотриманню вимог законодавства України щодо захисту персональних даних та інформаційної безпеки. 3. Перед використанням систем штучного інтелекту доцільно враховувати походження програмного забезпечення, країну реєстрації компанії-розробника, а також репутацію постачальника сервісу. У державному секторі рекомендується надавати перевагу рішенням, що відповідають вимогам інформаційної безпеки та походять з країн, які мають належні стандарти захисту даних. 4. Перед використанням програмних сервісів штучного інтелекту необхідно ознайомлюватися з ліцензійними умовами, політикою конфіденційності та правилами обробки даних, які встановлює розробник відповідного сервісу. Це дозволяє зрозуміти, чи можуть введені користувачем дані зберігатися, передаватися третім сторонам або використовуватися для подальшого навчання моделей. 5. Ефективне та безпечне використання систем штучного інтелекту потребує розвитку цифрових навичок державних службовців і посадових осіб місцевого самоврядування. З цією метою доцільно проходити відповідні освітні програми та курси з цифрової грамотності та кібергігієни, які реалізуються, зокрема, в Чернівецькому регіональному центрі підвищення кваліфікації. 6. Використання будь-яких цифрових сервісів, у тому числі систем штучного інтелекту, повинно відповідати внутрішній політиці інформаційної безпеки органу влади. Посадові особи мають дотримуватися затверджених правил обробки інформації, використання службових комп’ютерів, передачі даних та застосування зовнішніх онлайн-сервісів. У випадку відсутності чітких внутрішніх регламентів доцільно погоджувати використання нових інструментів із відповідальними підрозділами з інформаційної безпеки або ІТ-службою. Використання технологій штучного інтелекту у сфері публічного управління має значний потенціал для розвитку цифрової держави. Проте їх ефективне впровадження можливе лише за умови поєднання технологічних інновацій із належним нормативно-правовим регулюванням, дотриманням вимог інформаційної безпеки та формуванням культури відповідального використання інструментів штучного інтелекту у діяльності органів влади. |