Týždeň, ktorý ukázal, kde AI naráža na hranice
Tento týždeň sa v IT svete točilo okolo dôvery – dôvery v AI modely, dôvery vo firmy pracujúce pre vládu a dôvery v zariadenia, ktoré sledujú naše domovy. Anthropic sa dostal do sporu s Pentagonom, MIT prišiel s novým prístupom k vysvetliteľnosti AI a Ring musel vysvetľovať, čo vlastne robí s vašou tvárou po Super Bowle. Pre slovenské firmy je v tom niekoľko praktických ponaučení.
Anthropic verzus Pentagon: Čo znamená AI kontroverznosť pre B2B zákazky
TechCrunch rozvíril zaujímavú otázku: odradí spor medzi Anthropicom a americkým Ministerstvom obrany ostatné AI startupy od práce pre vládny sektor?
Anthropicov zakladateľ Dario Amodei sa dostal do konfliktu s Emilom Michaelom v súvislosti so spôsobom, akým spoločnosť komunikuje svoje etické princípy voči obranným zákazkám. Detaily sú stále nejasné, no samotná diskusia odhalila napätie, ktoré v AI sektore existuje dlhodobo: ako si firmy postavené na „zodpovednom AI" môžu bez rozporu uzatvárať zmluvy so subjektmi, kde sa AI priamo dotýka bezpečnostných a letálnych rozhodnutí.
Prečo je to dôležité pre firmy? V európskom kontexte je táto otázka rovnako aktuálna. Slovenské a české firmy, ktoré dodávajú softvér do verejného sektora alebo armády, si budú musieť čoraz jasnejšie definovať, aké použitie ich AI riešení je akceptovateľné. Nejde len o etiku – zákazníci z verejnej správy to začínajú vyžadovať zmluvne.
Praktický dopad: Ak plánujete vstúpiť do verejných obstarávaní s AI komponentom, pripravte si jasný dokument o etických obmedzeniach vášho riešenia. Nie ako marketing, ale ako technická špecifikácia. Odberatelia sa na to pýtajú čoraz častejšie.
MIT: AI modely konečne začínajú vysvetľovať, prečo si myslia to, čo myslia
Výskumníci z MIT zverejnili nový prístup, ktorý zlepšuje schopnosť AI modelov vysvetliť vlastné predpovede. Cieľom je pomôcť používateľom vedieť, kedy môžu výstupu modelu dôverovať – a kedy nie.
Doteraz bol problém vysvetliteľnosti AI (tzv. explainability) skôr akademickou témou. Modely vedeli povedať *čo*, ale nie *prečo*. Nový prístup cieli na bezpečnostne kritické aplikácie ako zdravotníctvo a autonómne riadenie, kde nestačí len správna odpoveď – dôležité je aj zdôvodnenie.
Prečo je to dôležité pre firmy? Európska AI regulácia (AI Act) priamo vyžaduje vysvetliteľnosť pre systémy v určitých rizikových kategóriách. Firmy, ktoré dnes implementujú AI do rozhodovania o úveroch, HR procesoch alebo medicínskych diagnózach, budú neskôr pod tlakom dokázať, ako model k výsledku došiel. Výskum MIT naznačuje, že technické riešenia sú na obzore.
Praktický dopad: Ak nakupujete alebo vyvíjate AI riešenia pre regulované odvetvia – financie, zdravotníctvo, poisťovníctvo – zaraďte vysvetliteľnosť do zoznamu technických požiadaviek už pri výbere dodávateľa. Je to oveľa lacnejšie teraz, ako to riešiť spätne po audite.
Ring a rozpoznávanie tvárí: Keď marketingová kampaň odhalí skrytý produkt
Zakladateľ Ringu Jamie Siminoff sa od Super Bowla venuje utišovaniu obáv o súkromie – no jeho odpovede podľa TechCrunchu veľa neupokoja. Problémom je konkrétne otázka rozpoznávania tvárí: Ring ju odmieta potvrdiť, ale ani jednoznačne poprieť.
Superbolová reklama ukázala scenáre, kde zariadenia Ring identifikujú konkrétne osoby – čo diváci pochopili ako potvrdenie funkcie, ktorú Amazon nikdy otvorene neoznámil.
Prečo je to dôležité pre firmy? Tento prípad je učebnicovým príkladom, ako môže kamerový systém v kancelárskom priestore alebo pri vstupe do firmy vyvolať právne a reputačné problémy. Rozpoznávanie tvárí je v EÚ pod AI Actom zaradené do vysokorizikových kategórií. Ak vaša firma používa akékoľvek kamerové systémy s analytickými funkciami – skontrolujte s dodávateľom, čo presne spracúvajú.
Praktický dopad: Požiadajte dodávateľov bezpečnostných kamerových systémov o explicitnú písomnú odpoveď na otázku: „Spracúva vaše zariadenie biometrické údaje vrátane rozpoznávania tvárí?" Neurčité odpovede sú samy osebe varovný signál.
Agent Safehouse: Sandboxing pre AI agentov na macOS
Na Hacker News zaznamenalo veľkú pozornosť Agent Safehouse – open-source nástroj na sandboxovanie lokálnych AI agentov na macOS. Projekt zbiera 540 bodov a viac ako 130 komentárov, čo naznačuje, že vývojárska komunita tému bezpečnosti AI agentov vníma ako naliehavú.
Problém je jednoduchý: moderné AI agenty dokážu spúšťať kód, pracovať so súbormi a volať externé API. Bez izolácie môže kompromitovaný agent narobiť reálnu škodu – zmazať dáta, exfiltrovať súbory alebo spustiť nechcený kód.
Prečo je to dôležité pre firmy? Ak vaše development tímy experimentujú s AI agentmi (Cursor, GitHub Copilot Workspace, vlastné LLM pipeline), bezpečnostná izolácia nie je luxus – je to základná hygiena. Nástroj ako Agent Safehouse je jednoduchý prvý krok.
Praktický dopad: Zaraďte sandboxing AI agentov do interných security guidelines pre vývojárov. Rovnako ako nikto nespúšťa neznámy npm balíček s root právami, AI agent by nemal mať neobmedzený prístup k súborovému systému počas vývoja.
LibreOffice 26.2 s podporou Markdown: Malá zmena, veľký signál pre open-source v IT
Document Foundation vydal LibreOffice 26.2, ktorý po rokoch požiadaviek prináša natívnu podporu Markdown v LibreOffice Writer. Paralelne organizácia zaslala výzvu Európskej komisii, aby dodržiavala vlastné smernice – konkrétne v kontexte Cyber Resilience Act (CRA) a open-source softvéru.
Jadrom sporu je, ako CRA definuje „komerčnú aktivitu" v open-source svete. Príliš prísna interpretácia by mohla zaťažiť dobrovoľných prispievateľov rovnakými bezpečnostnými povinnosťami ako komerčné firmy.
Prečo je to dôležité pre firmy? Slovenské firmy, ktoré stavajú produkty na open-source komponentoch (a to je dnes väčšina), by mali sledovať, ako sa CRA implementuje. Ak bude regulácia nepriaznivá pre open-source ekosystém, zvýši to závislosti na komerčných alternatívach a teda aj náklady.
Praktický dopad: Pre firmy hľadajúce alternatívu k Microsoft 365, LibreOffice s Markdown podporou pokrýva ďalší use case technických tímov. Pre compliance tímy – dajte si na kalendár sledovanie CRA implementačných aktov v roku 2026.
Záver: Čo sledovať ďalej
Najväčšia téma nadchádzajúcich týždňov zostáva regulácia AI v praxi. AI Act vstupuje do ďalších implementačných fáz, pričom požiadavky na vysokorizikové systémy začínajú byť reálne vymáhateľné. Firmy, ktoré to doteraz vnímali ako vzdialenú hrozbu, by mali koncom 2026 mať aspoň inventár AI systémov, ktoré používajú, a ich zaradenie do rizikových kategórií.
Anthropicov spor s Pentagonom bude mať dosah aj za Atlantikom – európske obranné a bezpečnostné obstarávania AI budú pod zvýšeným tlakom na transparentnosť a etické deklarácie dodávateľov.