Acasă Computing Western Intelligence and Cybersecurity Agencies issue AI guidance for Operational Technology (en/ro)

Western Intelligence and Cybersecurity Agencies issue AI guidance for Operational Technology (en/ro)

A coalition of cybersecurity agencies from the United States, the Five Eyes community, and European partners has released the most comprehensive guidance to date on safely integrating artificial intelligence into operational-technology (OT) environments. The document, Principles for the Secure Integration of Artificial Intelligence in Operational Technology, delivers a unified message: while AI promises major efficiencies, it introduces profound data-security and safety risks that many operators are not yet prepared to manage.

Published on December, 3rd, 2025, the guidance represents the most coordinated international effort so far to shape how AI is adopted across critical infrastructure sectors, including power generation, water management, transportation, manufacturing and other essential services that rely on uninterrupted, safe OT operations.

The document was jointly authored by the U.S. Cybersecurity and Infrastructure Security Agency (CISA), the National Security Agency’s Artificial Intelligence Security Center (NSA AISC) and the Federal Bureau of Investigation (FBI), alongside cybersecurity counterparts from:
– Australia – Australian Signals Directorate’s Australian Cyber Security Centre (ASD’s ACSC);
– Canada – Canadian Centre for Cyber Security;
– Germany – German Federal Office for Information Security (BSI);
– Netherlands – Netherlands National Cyber Security Centre (NCSC-NL);
– New Zealand – New Zealand National Cyber Security Centre (NCSC-NZ)
– United Kingdom -United Kingdom National Cyber Security Centre (NCSC-UK).
The agencies say the rapid acceleration of machine learning (ML), large-language models (LLMs) and autonomous AI agents inside critical infrastructure demands common standards before the technology becomes deeply embedded.

The Stakes: Promise, Peril and the Data Behind It
The agencies acknowledge that AI can deliver substantial benefits: predictive maintenance and early failure detection, enhanced decision-support for operators, improved efficiency and resource optimization, and better analysis across OT and IT environments.
But it also stresses that AI is fundamentally different from traditional automation. ML models drift over time. LLMs behave probabilistically. AI agents can attempt autonomous actions. And all these systems require large volumes of OT data to function—transforming once-isolated engineering and sensor information into high-value targets for attackers.

The document highlights several key hazards:
– OT process drift: AI and ML models may gradually diverge from safe or intended operational parameters over time.
– Safety-process bypasses: Poorly governed AI could override or route around safety controls.
– Expanded attack surface: Engineering diagrams, controller logic, sensor measurements and logs become more sensitive once used in AI pipelines.
– Human oversight erosion: Over-reliance on AI recommendations can reduce operators’ manual skills and their ability to respond during outages.

In short: The more data AI consumes, the more critical — and more exposed — those data streams become.

Four Principles for Responsible AI Deployment
At the core of the joint advisory are four principles that critical-infrastructure operators are urged to adopt before integrating AI into any OT system.

1. Understand AI
Organizations should clearly understand the risks associated with ML, LLMs and AI agents — including how they learn, how they fail, and how their behavior evolves. Staff must be trained to interpret AI outputs and validate them against real-world conditions, not rely on them blindly.

2. Consider AI Use in the OT Domain
AI should only be deployed when there is a clear, defensible operational benefit. Operators must consider data sensitivity, vendor roles, long-term maintenance and the downstream risks of embedding AI in safety-critical systems.

3. Establish AI Governance and Assurance Frameworks
The agencies call on organizations to create governance systems that link leadership (CEOs, CISOs), OT engineers, IT security teams, AI specialists and vendors. Continuous testing, model evaluation, risk reviews and regulatory compliance must become standard practice — not one-off exercises.

4. Embed Safety and Security Practices into AI-Enabled OT Systems
AI systems should never be allowed to operate without human oversight when safety is at stake. The guidance stresses human-in-the-loop controls, built-in failsafe mechanisms, the ability for operators to disable or bypass AI modules when needed and updating incident-response plans to account for AI-specific failures such as data poisoning, model drift or corrupted outputs.

Data: The New Battleground
A major focus — and one of the clearest signals in the guidance — is the call for rigorous OT data protection. The agencies warn that both engineering configuration data (network diagrams, logic routines, controller settings) and ephemeral process data (pressure, temperature, voltage, flow rates) can expose patterns that adversaries could exploit once used in AI training or analysis.

Key recommendations include:
– Maintain strict control over OT data — know where it is, who can access it, and how it is stored or used by vendors.
– Demand transparency from AI vendors, including Software Bills of Materials (SBOMs), data-handling practices, and the ability to disable AI functions.
– Prefer push-based architectures — sending selected data to AI tools rather than giving them persistent access into OT networks.
– Monitor for data poisoning or manipulation — since compromised inputs can lead to compromised model behavior.
– Avoid unnecessary sharing of sensitive data, particularly with cloud providers subject to foreign jurisdiction.

The guidance also raises concerns about data sovereignty risks, noting that companies operating AI models in certain countries may be legally compelled to hand over data to their national governments, potentially exposing critical infrastructure details.

Implications for Operators, Vendors and Governments
For infrastructure operators — especially in sectors with limited budgets or dispersed facilities such as water or small municipal utilities — the message is direct: AI is not a fast path to modernization. Without planning, governance, segmentation, and strong data hygiene, AI adoption may deepen existing vulnerabilities.

For vendors offering AI-enabled OT products, the guidance raises the bar. Transparency, supply-chain security, offline testing and documented failsafes are likely to become competitive requirements.

For governments, this joint statement may foreshadow stronger regulatory action. As AI becomes embedded in safety-critical infrastructure, voluntary guidance may evolve into mandatory standards or compliance frameworks.

Industry reaction and the road ahead
Security analysts have broadly praised the guidance as overdue, especially its focus on data protections, anomaly detection and continuous validation of AI behavior. Practitioners echo concerns about model drift, prompt injection, data poisoning and hallucinations — risks that traditional OT security standards never anticipated.

Still, significant challenges remain. Much critical infrastructure runs on decades-old hardware. Skilled AI-OT personnel are scarce. And many operators lack the budget or staffing to implement constant monitoring and testing.

Creating secure AI-enabled OT environments, the agencies warn, will require more than technology—it will require long-term investment, cultural shifts and unprecedented transparency from vendors.

A Turning Point
The guidance from CISA, NSA, FBI and allied agencies does not discourage the use of AI in critical infrastructure. Instead, it provides a structured roadmap for integrating AI without compromising safety, reliability or public trust.

Its central message is unmistakable:
AI can modernize critical infrastructure — but only when paired with disciplined governance, strong data protections, human oversight and the willingness to stop or reverse AI deployment when safety requires it.

How effectively operators heed that message will shape the security and resilience of essential services for years to come.

Related:
– The guidance document – Principles for the Secure Integration of Artificial Intelligence in Operational Technology – ”cisa.gov”
– NSA, CISA, FBI and Allies release joint guidance on AI Data Security – ”stiridigitale.ro”

Foto: ”freepik.com”

Varianta în limba română
Traducere (automată) neoficială din limba engleză)
– efectuată cu ”deepl.com/translator” .

Agenții occidentale de intelligence și securitate cibernetică emit un ghid pentru AI în tehnologia operațională
O coaliție compusă din agenții de intelligence, securitate cibernetică din Statele Unite, din comunitatea Five Eyes și din parteneri europeni a publicat cel mai cuprinzător ghid de până acum privind integrarea în siguranță a inteligenței artificiale în mediile de tehnologie operațională (OT). Documentul, Principles for the Secure Integration of Artificial Intelligence in Operational Technology, transmite un mesaj unitar: deși IA oferă oportunități semnificative, introduce și riscuri majore pentru securitatea datelor și siguranța operațională — riscuri pentru care mulți operatori nu sunt încă pregătiți.

Publicat la 3 decembrie 2025, ghidul reprezintă cel mai coordonat efort internațional de până acum pentru a defini modul în care IA este adoptată în sectoarele de infrastructură critică, inclusiv producția de energie, gestionarea apei, transporturile, producția industrială și alte servicii esențiale care depind de funcționarea neîntreruptă și sigură a sistemelor OT.

Documentul a fost elaborat în comun de U.S. Cybersecurity and Infrastructure Security Agency (CISA), Artificial Intelligence Security Center al National Security Agency (NSA AISC) și Federal Bureau of Investigation (FBI), alături de instituțiile omoloage din:
– Australia – Australian Signals Directorate / Australian Cyber Security Centre (ASD’s ACSC);
– Canada – Canadian Centre for Cyber Security;
– Germania – Bundesamt für Sicherheit in der Informationstechnik (BSI);
– Țările de Jos – Netherlands National Cyber Security Centre (NCSC-NL);
– Noua Zeelandă – New Zealand National Cyber Security Centre (NCSC-NZ);
– Regatul Unit – United Kingdom National Cyber Security Centre (NCSC-UK).

Agențiile afirmă că accelerarea rapidă a utilizării algoritmilor de machine learning (ML), a modelelor de limbaj de mari dimensiuni (LLM) și a agenților IA autonomi în infrastructura critică impune standarde comune înainte ca aceste tehnologii să devină profund integrate în operațiuni.

Miza: oportunități, riscuri și rolul datelor
Agențiile recunosc că IA poate oferi beneficii semnificative: întreținere predictivă și detectare timpurie a defectelor, suport decizional avansat pentru operatori, eficiență sporită și o mai bună analiză a datelor OT și IT.
Dar subliniază, de asemenea, că IA este fundamental diferită de automatizarea tradițională. Modelele ML se degradează în timp. LLM-urile au comportament probabilistic. Agenții IA pot încerca acțiuni autonome. Iar toate aceste sisteme necesită volume mari de date OT pentru a funcționa — transformând informații inginerie și date senzoriale anterior izolate în ținte valoroase pentru atacatori.

Documentul evidențiază câteva riscuri-cheie:
– Devieri ale proceselor OT: modelele ML pot devia treptat de la parametrii operaționali siguri sau intenționați.
– Ocolirea proceselor de siguranță: un sistem IA insuficient guvernat ar putea suprascrie sau evita controalele de siguranță.
– Suprafață de atac extinsă: diagrame de inginerie, logica setărilor, măsurători și jurnale devin mai sensibile odată introduse în fluxurile IA.
– Erodarea supravegherii umane: dependența excesivă de recomandările IA poate reduce capacitatea operatorilor de a diagnostica manual problemele și de a interveni în cazul unor defecțiuni.

Pe scurt: cu cât IA consumă mai multe date, cu atât aceste fluxuri devin mai critice — și mai expuse.

Patru principii pentru implementarea responsabilă a IA
În centrul ghidului se află patru principii pe care operatorii de infrastructuri critice sunt îndemnați să le adopte înainte de a integra IA în orice sistem OT.

1. Înțelegeți IA
Organizațiile trebuie să înțeleagă clar riscurile asociate cu ML, LLM și agenții IA — inclusiv modul în care învață, cum pot eșua și cum își pot modifica comportamentul. Personalul trebuie instruit să interpreteze și să valideze rezultatele IA, nu să se bazeze pe ele în mod automat.

2. Evaluați utilizarea IA în domeniul OT
IA ar trebui implementată doar atunci când există un beneficiu operațional clar și justificabil. Operatorii trebuie să ia în considerare sensibilitatea datelor, rolul furnizorilor, costurile și implicațiile pe termen lung ale folosirii IA în sistemele critice.

3. Stabiliți cadre de guvernanță și asigurare pentru IA
Agențiile recomandă crearea unor sisteme de guvernanță care să conecteze conducerea (CEO, CISO), inginerii OT, echipele IT de securitate, specialiștii în IA și furnizorii. Testarea continuă, evaluarea modelelor, revizuirea riscurilor și conformitatea trebuie să devină procese permanente.

4. Integrați practici de siguranță și securitate în sistemele OT cu IA
IA nu trebuie să opereze autonom acolo unde este implicată siguranța. Ghidul subliniază importanța:
– operatorului uman,
– mecanismelor de avarie și modurilor de degradare controlată,
– posibilității de a dezactiva sau ocoli module IA,
– actualizării planurilor de răspuns la incidente pentru a include riscuri IA precum manipularea datelor, deriva modelelor sau comportamente neprevăzute.

Datele: noul câmp de luptă
Un mesaj central — și unul dintre cele mai ferme — este nevoia de protecție riguroasă a datelor OT. Atât datele de configurare inginerie (diagrame de rețea, logica setărilor, rutine de siguranță), cât și datele de proces (presiune, temperatură, tensiune, debit) pot dezvălui informații utile adversarilor atunci când sunt folosite în fluxuri IA.

Recomandările cheie includ:
– Menținerea unui control strict asupra datelor OT — locație, acces, stocare și utilizare de către furnizori.
– Solicitarea de transparență de la furnizorii IA, inclusiv SBOM, practici de gestionare a datelor și posibilitatea de a dezactiva funcțiile IA.
– Preferarea arhitecturilor „push-based” — transmiterea selectivă a datelor către sisteme IA, fără acces permanent la rețelele OT.
– Monitorizarea tentativelor de manipulare a datelor.
– Evitarea partajării inutile a datelor sensibile, în special cu furnizori supuși jurisdicțiilor străine.

Documentul avertizează și asupra riscurilor de suveranitate a datelor, subliniind că firmele care operează modele IA în anumite țări pot fi obligate legal să furnizeze date guvernelor locale — expunând potențial detalii despre infrastructura critică.

Implicații pentru operatori, furnizori și guverne
Operatori
Pentru operatorii din infrastructură — mai ales cei cu bugete limitate, precum sectorul apei — mesajul este clar: IA nu este o scurtătură pentru modernizare. Fără planificare, guvernanță, segmentare și igienă digitală, IA poate amplifica vulnerabilitățile existente.

Furnizori
– Pentru furnizorii de soluții IA pentru OT, standardele cresc. Transparența, securitatea lanțului de aprovizionare, testarea offline și failsafe-urile documentate vor deveni cerințe competitive.

Guverne
– Acest demers coordonat poate prefigura o reglementare mai strictă. Pe măsură ce IA devine parte a infrastructurii critice, recomandările de astăzi ar putea deveni standarde obligatorii.

Reacția industriei
Analiștii de securitate au salutat ghidul, considerându-l necesar, în special datorită accentului pus pe protecția datelor, detectarea anomaliilor și validarea continuă a comportamentului IA. Practicienii subliniază riscurile de deriva modelelor, prompt injection,manipularea datelor — riscuri pe care standardele OT tradiționale nu le acoperă.

Provocările sunt însă semnificative. Multe sisteme de infrastructură critică folosesc echipamente vechi. Personalul cu expertiză IA-OT este puțin. Iar bugetele pentru monitorizare și testare continuă sunt limitate.

Crearea unor medii OT sigure, compatibile cu IA, vor necesita nu doar tehnologie, ci și investiții pe termen lung, schimbări de mentalitate și niveluri noi de transparență din partea furnizorilor.

Un moment de cotitură
Ghidul publicat de CISA, NSA, FBI și agențiile partenere nu descurajează utilizarea IA în infrastructura critică. Dimpotrivă — oferă o foaie de parcurs pragmatică pentru adoptarea IA fără a compromite siguranța, fiabilitatea sau încrederea publică.

Mesajul este clar:
IA poate moderniza infrastructura critică — dar numai dacă este implementată cu disciplină, transparență, protecție solidă a datelor, supraveghere umană și disponibilitatea de a opri sau retrage sistemele IA atunci când siguranța o impune.

De modul în care operatorii vor aplica acest mesaj va depinde reziliența serviciilor esențiale în anii următori.