Въпреки че Европейският съюз активно прилага своя Акт за изкуствения интелект (AI Act), България все още е в начален етап на изграждане на националната си рамка за неговото изпълнение. Министерството на електронното управление (МЕУ), натоварено с водещата роля в този процес, признава липсата на окончателни решения относно координационния модел, механизмите за надзор над високорисковите системи и националните правила за прилагане. Тази информация става ясна от отговори на МЕУ, предоставени на БТА по Закона за достъп до обществена информация.
Съветът по европейски въпроси възложи на МЕУ ключова роля за въвеждането на европейския регламент в страната. До момента обаче, дейностите на ведомството са фокусирани предимно върху изготвянето на проекторешения за Министерския съвет, провеждане на консултации с други институции и участие в европейски координационни срещи.
**Определени са органи за основните права, но ключови функции остават без яснота**
Като едно от основните си постижения, МЕУ посочва приемането на Решение № 398 на Министерския съвет от 18 юни 2025 г. С него са дефинирани седем компетентни органа, отговорни за защитата на основните права, включително правото на недискриминация, в контекста на ИИ. Сред тях са институцията на омбудсмана, Централната избирателна комисия (ЦИК), Комисията за защита от дискриминация (КЗД), Комисията за защита на личните данни (КЗЛД), Комисията за защита на потребителите (КЗП), Държавната агенция за закрила на детето (ДАЗД) и Изпълнителна агенция „Главна инспекция по труда“. Според министерството, това е изпълнило едно от първоначалните изисквания на регламента, осигурявайки разпределение на институционални компетенции по отношение на въздействието на ИИ върху правата, свързани с недискриминация, лични данни, потребители, деца и труд.
Въпреки това, отговорите на МЕУ разкриват, че тази стъпка обхваща само ограничен аспект от прилагането на Акта за ИИ. Тя не дава отговор на съществени въпроси като надзора върху високорисковите системи с изкуствен интелект, режима на санкции и цялостното практическо въвеждане на регламента на национално ниво.
**Проекти за нотифициращ орган и пазарен надзор – без окончателно решение**
Министерството информира, че е разработило проект на решение за Министерския съвет, предвиждащ Изпълнителна агенция „Българска служба по акредитация“ да поеме функцията на национален нотифициращ орган по Акта за ИИ. Този проект обаче все още не е внесен за обсъждане и приемане от правителството.
Подобна е ситуацията и с надзора на пазара на високорискови системи с ИИ. МЕУ е провело консултации и е подготвило проект на решение, но междуведомственото съгласуване тепърва предстои. Към момента липсва яснота кои конкретни органи ще осъществяват ефективен надзор и как ще бъдат разпределени техните правомощия. Така един от ключовите елементи на регулаторната рамка остава в етап на очакване.
**Работна група предстои, нормативна рамка – най-рано през 2026 г.**
От предоставената информация става ясно, че ключовата междуведомствена работна група, която трябва да създаде националната нормативна уредба за прилагане на Акта за ИИ, все още не е започнала своята дейност. Заповедта за нейното сформиране от министъра на електронното управление е трябвало да бъде издадена до края на 2025 г.
Срокът за изработване на цялостната национална нормативна рамка е определен за март 2026 г. Това означава, че през първия период на прилагане на регламента България ще функционира без пълна национална уредба, включително по отношение на санкциите, координацията между институциите и спецификите за публичния сектор.
**Липсва решение за национален координационен център по ИИ**
На въпрос относно създаването на единен национален координационен център за изкуствен интелект, по подобие на т.нар. AI Office на европейско ниво, МЕУ отговаря, че към момента такова решение не е взето. Очаква се бъдещата работна група да предложи координационен модел, което допълнително отлага изясняването на институционалната архитектура.
Министерството отбелязва своето участие в Европейския съвет по изкуствен интелект и неговите подгрупи, както и одобреното финансиране по Инструмента за техническа подкрепа на Европейската комисия за 2024 г. Същевременно обаче се отчита забавяне от страна на Европейската комисия при избора на изпълнител по проекта. Допълнително, проектно предложение за 2026 г., целящо изграждане на административен капацитет и регулаторна лаборатория за ИИ с бюджет от 213 520 евро, е оценено от Министерството на финансите като нископриоритетно, съгласно решение на Министерския съвет от 30 октомври 2025 г.
МЕУ идентифицира основни предизвикателства като недостатъчен експертен капацитет, нужда от техническа инфраструктура и сложното институционално взаимодействие, произтичащо от хоризонталния характер на Акта за изкуствения интелект. Анализ на конкретните нужди на администрацията и компетентните органи предстои да бъде извършен едва след като техните отговорности бъдат ясно дефинирани в бъдещата нормативна уредба.
**България в “подготвителен етап” без ключови елементи**
В обобщение, прилагането на Акта за изкуствения интелект в България се намира предимно в подготвителен етап, без завършена национална рамка и без ясно разписани отговорности за надзора над високорисковите ИИ системи. Към момента липсват приети решения за националния координационен модел, за конкретните органи по надзор на пазара, за санкционния режим и за воденето на национален регистър на системите с ИИ. Междуведомствената работна група, която е призвана да разработи тези елементи, макар и формално създадена, планира нормативната уредба най-рано за 2026 г. Това означава, че в началния период на прилагане на европейския регламент България ще разчита предимно на временни решения и институционална координация “в процес на изграждане”, при ограничена предвидимост за бизнеса, администрацията и контролните органи. В този регулаторен вакуум регламентът формално ще действа, но неговото практическо приложение остава ограничено и трудно предвидимо.