Ešte včera bola AI „reaktívna“: napíšete otázku, dostanete odpoveď. Dnes sa rodí nová vrstva: agent ako softvérový „vykonávač“, ktorý vie úlohu pochopiť, rozložiť na kroky, vybrať nástroje a postupne ju dokončiť — často bez toho, aby ste mu museli každých 30 sekúnd držať ruku. Presne takto definuje agentov aj IBM: agent autonómne „rozumie, plánuje a vykonáva“ a napája sa na nástroje, modely či systémy podľa potreby.
Prechod od chatbotov k agentom
Tento posun nie je marketingová metafora — je to architektonická zmena. Veľký survey o agentickej AI popisuje „Agentic AI Era (2022–súčasnosť)“ ako obdobie, kde schopnosti generatívnych modelov prechádzajú od textu k akcii: plánovanie, používanie nástrojov, pamäť, a čoraz častejšie aj spolupráca viacerých agentov s rozdelenými rolami.
Aby to bolo jasné: agent nie je „magická bytosť“. Je to kombinácia (1) modelu, (2) nástrojov, (3) pravidiel a dohľadu, (4) pamäte/kontextu a (5) „agent loopu“, teda cyklu, kde model navrhuje ďalší krok, systém ho vykoná a vráti výsledok. Presne takto to opisujú aj oficiálne dokumentácie k počítačovému ovládaniu (computer use): agentické „loopovanie“ je jadro autonómie.
Kľúčový dôsledok: AI sa prestáva správať ako „vyhľadávač odpovedí“ a začína sa správať ako „koordinátor práce“. Tento trend vidno aj v tom, ako veľké platformy posúvajú AI smerom k proaktívnym úlohám: napríklad agent, ktorý vie na webe klikať, písať a scrollovať vo vlastnom prehliadači, je už realita v podobe „Operator“ (research preview), kde používateľ dá cieľ a agent ho vykonáva v GUI.
A teraz príde zlomová veta, ktorá mení kariéry: keď sa kódovanie presunie z „písania“ na „zadávanie zámeru“, vzniká nový druh zručnosti. Termín „vibe coding“ (kódovanie „podľa pocitu“) sa ujal ako pomenovanie štýlu, kde človek dáva pokyny prirodzeným jazykom a AI generuje kód. Takto to popisujú aj Google Cloud a IBM: ide o posun od syntaxe k zámeru, pričom profesionálna verzia vyžaduje testovanie a prevzatie zodpovednosti za výsledok.
Zaujímavé je, že autor termínu „vibe coding“, Andrej Karpathy, už verejne tlačí ďalší pojem: „agentic engineering“ ako prácu, kde agenti generujú a upravujú kód autonómnejšie a rola človeka je viac o riadení, kontrole kvality a architektúre než o ručnom písaní.
A pozor: to, že sa niečo volá „revolúcia“, ešte neznamená, že je to vždy rýchlejšie. Randomizovaná štúdia Reuters-om citovaného výskumného tímu METR na skúsených open-source vývojároch ukázala, že pri „early-2025 AI tools“ boli vývojári v priemere o 19 % pomalší — hoci subjektívne mali pocit, že sú rýchlejší. To nie je argument proti AI; to je argument za správne procesy, správne nastavenie očakávaní a správny dohľad.
Stavebné bloky novej éry
Predstavte si agentov ako stavebnicu LEGO. Keď máte správne dieliky, môžete postaviť čokoľvek: od osobného asistenta až po autonómny tím, ktorý cez noc vyrobí prototyp aplikácie. Dieliky sú dnes prekvapivo štandardizované a dostupné.
Najväčší posun v praxi priniesli tri kategórie: (a) agentické SDK a orchestrovanie, (b) prístup k nástrojom vrátane „computer use“, (c) lokálny beh modelov a práca s internými dátami cez RAG.
Agentické SDK a orchestrovanie sa explicitne posunulo z experimentov do „produkčného mindsetu“. OpenAI uvádza, že jeho pôvodný multi-agent framework Swarm bol nahradený Agents SDK, ktorý je produkčne orientovaný a odporúča sa pre reálne použitie.
Rovnako Microsoft má vlastné agentické rámce: AutoGen ako multi-agent konverzačný framework (s akademicky publikovaným opisom a praktickými pilotmi) a Microsoft Agent Framework ako open-source nástroj na tvorbu, orchestrovanie a nasadzovanie agentov (Python aj .NET).
Ak chcete agentov, ktorí bežia dlhšie, majú stav, pamäť a dajú sa debugovať ako seriózny systém, v open-source svete sa často skloňuje napríklad LangGraph, ktorý sa profiluje ako infraštruktúra na „long-running, stateful agents“ a ponúka mechaniky na pamäť a observabilitu.
Teraz k tomu, čo je pre bežného človeka najviac „wow“: agent, ktorý vie používať počítač. Anthropic opisuje „computer use“ ako snahu, aby AI vedela používať existujúci softvér „ako človek“ (kliká, píše, vidí obrazovku cez screenshoty), zároveň však otvorene priznáva, že je to zatiaľ pomalé a chybové a že model vidí obrazovku „flipbookovo“. To je dôležitý detail: agentic budúcnosť prichádza, ale ešte nie je bez trenia.
Podobný smer vidno aj na agentoch, ktorí už reálne vykonávajú webové úlohy v GUI (Operator) a na „ChatGPT agent“ režime, kde sa agent môže napojiť na konektory, vykonať výskum, pripraviť prezentáciu či spracovať úlohy — pričom platforma explicitne zdôrazňuje, že to prináša nové riziká, najmä prompt injection.
Do tretice: interné dáta. Kým agent bez kontextu je „šikovný študent“, agent s vašimi dátami je „senior kolega“. Technika, ktorá to umožňuje vo veľkom, sa často volá RAG (retrieval-augmented generation): model generuje odpoveď s oporou o dokumenty získané z externého úložiska. Úvodný RAG paper opisuje jadro ako spojenie parametric memory (model) a non-parametric memory (retrieval index), aby boli odpovede konkrétnejšie a faktickejšie.
Lenže je tu bezpečnostný twist: OWASP priamo uvádza, že RAG ani fine-tuning samy o sebe prompt injection „neopravia“ — útoky cez manipulované vstupy zostávajú problémom.
A tu prichádza tlačidlo „súkromie“: lokálne modely. Nástroje ako llama.cpp ukazujú, že inference sa dá robiť lokálne a modely sa dajú držať v efektívnych formátoch (napr. GGUF) s podporou rôznych hardvérov.
Ekosystém okolo lokálneho behu modelov pritom narástol do sveta integrácií: Ollama sa prezentuje ako platforma na pripájanie „open models“ do aplikácií a agentov a uvádza tisíce integrácií naprieč kódovaním, dokumentami/RAG aj automatizáciou.
S lokálnym behom však prichádza realita: bezpečnosť už nie je „problém cloudu“, je to problém konfigurácie. Výskum SentinelOne a Censys mapoval približne 175 tisíc verejne prístupných Ollama hostov naprieč 130 krajinami a upozorňuje, že časť z nich má tool-calling — teda schopnosť vykonávať akcie, nielen rozprávať. Štúdia priamo vysvetľuje aj mechanizmus: default je localhost (127.0.0.1), ale jediná zmena typu bind na 0.0.0.0 vytvorí verejný povrch.
Praktické scenáre, ktoré viete nasadiť tento týždeň
Tu je dôležitý mindset: agenti nie sú „hračka“ — sú to „procesy v pohybe“. Keď ich použijete správne, výsledok nie je len ušetrených 10 minút, ale získaná mentálna kapacita: menej prepínania, menej drobných rozhodnutí, menej „otvorených slučiek“ v hlave. Aj preto sa oplatí stavať prvé agentické experimenty tak, aby boli bezpečné, merateľné a postupne rozširovateľné.
Osobný digitálny asistent s vlastnou identitou
Najpraktickejší „prvý agent“ nie je ten, ktorý má prístup ku všetkému; je to ten, ktorý má vlastný priestor a jasnú úlohu. Viaceré platformy dnes smerujú k tomu, aby agent vedel pracovať s emailom/kalendárom cez konektory, ale zároveň vám v kritických momentoch vrátil kontrolu (napríklad pri logine či citlivých akciách).
Ako to uchopiť tak, aby to bolo použiteľné hneď:
- Asistent má „pracovný inbox“ (nie váš hlavný) a plánuje v „pracovnom kalendári“ (nie v osobnom).
- Denne vám pripraví stručný „brief“: tri najdôležitejšie veci, tri riziká, tri návrhy na zjednodušenie.
- Raz týždenne vám spraví retrospektívu: čo zhltlo čas, čo sa dá automatizovať, čo vyžaduje vaše ľudské rozhodnutie.
Toto nie je sci-fi — je to organizácia agentickej práce s dôrazom na dohľad a delegáciu.
Autonómna optimalizácia nákladov s „peňaženkou na vodítku“
Veľká pridaná hodnota agentov nie je v tom, že „vedia poradiť“, ale v tom, že vedia vykonať sériu krokov: porovnať ponuky, skontrolovať pravidlá, navrhnúť rozhodnutie a pripraviť akciu.
Aby to bolo bezpečné, inšpirujte sa tým, ako veľké agentické systémy riešia „real-world consequences“: citlivé akcie vyžadujú explicitné potvrdenie a platforma má nastaviteľné obmedzenia (napr. odmietanie vysokorizikových finančných operácií).
V praxi to znamená: agent môže mať rozpočet, ale nie kľúče od trezoru. Limitovaná karta, limitované oprávnenia, audit log, denné reporty. Toto je presne duch moderného identity & authorization prístupu pre agentov, ktorý odporúča aj OpenID Foundation: oddeliť autentifikáciu, delegáciu a autorizáciu a riešiť tokeny, revokáciu a audit pre dlhšie bežiace úlohy.
Lokálny strážca dát
Ak pracujete s citlivými dokumentmi (zmluvy, rodinné financie, interné know-how), lokálny beh modelu je často najčistejšia cesta: dáta neodchádzajú z vášho zariadenia. Praktické prehľady o lokálnom behu LLM hovoria priamo: dôvodmi sú súkromie, kontrola a možnosť integrácie s lokálnymi priečinkami či API serverom.
Zároveň však platí lekcia zo security sveta: „lokálne“ neznamená automaticky „bezpečné“. Keď sa lokálny server omylom vystaví na internet, stane sa z neho verejný výpočtový zdroj, ktorý môže niekto zneužiť. Výskum SentinelOne/Censys ukazuje, že sa to deje v masovom meradle a často ide práve o hosty s tool-calling schopnosťami.
Proaktívny vývojár aplikácií
Najväčší šok pre veľa ľudí je, že „kódovanie“ už nie je binárne „viem/neviem“. Vibe coding znižuje prah prototypovania: prirodzeným jazykom zadáte potrebu, AI navrhne implementáciu, vy testujete, spresňujete, nastavujete hranice.
Ale ak chcete, aby to bolo udržateľné (a nie len víkendový experiment), potrebujete prejsť z vibe na agentic: definovať kvalitatívne štandardy, testy, bezpečnostné pravidlá a zodpovednosť. METR štúdia je tu výborný „budíček“: ak sa AI používa bez jasného procesu, ľahko vytvorí ilúziu rýchlosti, ktorá sa v realite zmení na viac času v kontrole, opravách a čakaní.
Bezpečný režim: pravidlá, ktoré z AI spravia spojenca, nie riziko
Keď sa AI systém zmení z „odpovedača“ na „vykonávača“, rastie aj plocha rizík. To nie je dôvod cúvnuť — to je dôvod prepnúť na profesionálne pravidlá.
Najprv rámec: NIST v AI Risk Management Framework popisuje, že AI je socio-technická, riziká aj benefity vznikajú z interakcie technických a spoločenských faktorov, a že riadenie rizík má byť kontinuálne. Zároveň definuje štyri funkcie jadra: GOVERN, MAP, MEASURE, MANAGE — nie ako checklist, ale ako organizáciu práce s rizikom.
Potom „praktický bezpečnostný slovník“: OWASP pre LLM aplikácie pomenúva špecifické hrozby agentickej éry: prompt injection, únik citlivých informácií, „excessive agency“, únik systémových promptov, slabiny vektorov/embeddingov v RAG, dezinformácie a neobmedzenú spotrebu zdrojov.
A teraz preklad do „zlatých pravidiel“, ktoré sú 100 % použiteľné.
Princíp izolácie znamená: agent nerobí nič na vašom hlavnom stroji, účte ani profile, pokiaľ to nie je nevyhnutné. Aj oficiálna dokumentácia k computer-use nástrojom odporúča sandboxované prostredie (VM/ kontajner), pretože agent pracuje s obrazovkou, kliká a spúšťa akcie.
Princíp vlastnej digitálnej identity znamená: agent je samostatná „strojová identita“ so samostatnými oprávneniami, nie „vy“ v maskovaní. OpenID report explicitne rieši autentifikáciu agenta aj používateľa, delegáciu oprávnení, revokáciu tokenov a audit pre asynchrónne dlhé úlohy.
Princíp najmenej potrebných oprávnení znamená: agent dostane minimum práv na dokončenie úlohy. NIST definuje „least privilege“ ako obmedzenie prístupových práv na minimum potrebné na splnenie úloh. Toto pravidlo je kľúčové práve pri agentoch, lebo agent s nástrojmi vie „konať“ a chyba sa mení na akciu.
Princíp „system prompt nie je firewall“ znamená: nikdy nepredpokladať, že inštrukcie v systéme sú tajné alebo nepriestrelné. OWASP upozorňuje, že system prompt leakage je riziko a že citlivé veci (kľúče, roly, permission logika) nemajú byť v promptoch.
Princíp ochrany pred prompt injection znamená: agentické systémy musia rátať s tým, že škodlivé inštrukcie môžu byť „schované“ v webe, súboroch, textoch či metadátach. OpenAI pri agentických režimoch otvorene popisuje prompt injection ako kľúčové riziko a uvádza, že používateľ má minimalizovať expozíciu (napr. vypínať konektory, keď netreba). OWASP zároveň priamo píše, že RAG a fine-tuning samy o sebe prompt injection úplne neodstránia.
Princíp pravidelného dozoru znamená: agent beží, ale vy máte „riadidlá“. Aj pri agentoch, ktoré ovládajú web, sa počíta s tým, že používateľ môže prevziať kontrolu (takeover) a že kritické akcie majú vyžadovať potvrdenie.
A ešte jeden „tvrdý“ príklad, ktorý stojí za zapamätanie: verejne vystavené lokálne LLM hosty. Výskum SentinelOne/Censys ukazuje masívny „unmanaged layer“ AI infraštruktúry bez guardrailov, kde podstatná časť hostov má aj tool-calling. To je presne situácia, kde sa z dobrého nápadu (lokálna AI) stane bezpečnostné riziko len kvôli konfigurácii.
A napokon regulácie: v Európska únia už AI nie je len technologická téma, ale aj právna. Európska komisia opisuje AI Act ako risk-based rámec: od minimálneho rizika cez transparentnosť až po high-risk systémy s prísnymi požiadavkami a „unacceptable risk“ praktiky, ktoré sú zakázané.
Oficiálna stránka Komisie k AI Act uvádza aj časovú os: vstup do platnosti 1. augusta 2024, plná aplikácia 2. augusta 2026 s výnimkami (napr. zakázané praktiky a AI literacy od februára 2025, pravidlá a povinnosti pre GPAI od augusta 2025, predĺžené obdobie pre niektoré high-risk pravidlá až do augusta 2027).
Pre vás to znamená jednoduchú vec: bezpečný agent nie je „extra“, je to základ profesionality. A profesionálne nastavený agent je presne to, čo vám dá kariérny náskok, lebo väčšina ľudí bude ešte chvíľu agentov používať „na pocit“ — a vy ich budete používať „na výsledok“.
Vízia: kam smerujú autonómni pomocníci
Najväčší potenciál agentickej éry nie je v tom, že AI „nahradí ľudí“, ale že vytvorí novú ekonomiku pozornosti: ľudská myseľ sa posunie z operatívy na rozhodovanie, smerovanie a tvorbu.
Krátkodobý trend bude pravdepodobne vyzerať takto: viac „agent mode“ v bežných nástrojoch, viac napojení na kalendáre, inboxy, knowledge base, viac práce v dlhších behových cykloch (asynchrónne úlohy), viac transparentnosti cez „tracing“ a observabilitu, lebo bez toho sa agentické systémy nedajú škálovať. Toto je viditeľné v tom, že agentické SDK zdôrazňujú trace/observability a že aj agentické režimy pre používateľov sľubujú „viditeľnosť toho, čo agent robí“.
Strednodobo bude kľúčová štandardizácia identít a prístupu: agenti budú mať vlastné identity, delegované oprávnenia, tokeny, revokácie, audit. OpenID report priamo upozorňuje na špecifiká agentov: dlhšie bežiace úlohy, asynchrónne operácie a potreba bezpečného refreshu bez porušenia least privilege.
Technicky sa rozšíri aj „hybrid sveta“: časť práce pobehne v cloude (škálovanie, konektory, výkonnosť), časť lokálne (súkromie, citlivé dáta). Lokálne LLM ekosystémy rastú, ale budú vyžadovať profesionálnu bezpečnostnú hygienu — práve preto, že verejná expozícia lokálnych služieb je reálny problém.
A ľudsky? Najsilnejšia zručnosť budúcnosti nebude „vedieť promptovať“. Bude to vedieť:
- definovať zámer,
- nastaviť hranice (bezpečnosť, rozpočet, oprávnenia),
- navrhnúť systém spätnej väzby (meranie kvality),
- zaviesť rutiny kontroly (reporty, audit),
- a vedieť, kedy AI spomaluje a treba zmeniť proces (METR efekt „ilúzie rýchlosti“).
Tri otázky, ktoré vám dramaticky zjednodušia AI v práci aj doma
Aký je môj najdrahší opakujúci sa workflow a čo je v ňom „ľudské“ vs. „mechanické“?
Detailná odpoveď (ako by mala vyzerať, aby vám pomohla):
Zoberte si jeden proces, ktorý vám žerie čas aspoň 2–3× týždenne (email triage, reporty, príprava meetingov, faktúry, zber podkladov, odpovedanie na opakujúce sa otázky). Rozkreslite ho na kroky a ku každému kroku priraďte jednu z troch kategórií: „mechanické“ (kopírovanie, zhrnutie, vyhľadanie v dokumentoch), „polomechanické“ (návrh odpovede, návrh štruktúry, zoskupenie), „ľudské“ (finálne rozhodnutie, zodpovednosť, etika, podpis). Toto je praktická implementácia myslenia MAP/MEASURE/MANAGE: zmapovať kontext, zmerať riziko a nastaviť riadenie.
Prečo vám to extrémne uľahčí život:
Agent potom nedostane „robiť všetko“, ale konkrétny mechanický modul, ktorý je bezpečný a merateľný. Tým sa vyhnete „excessive agency“ a zároveň viete rýchlo vyhodnotiť ROI.
Akú identitu a oprávnenia bude mať môj agent, aby bol užitočný, ale nebol nebezpečný?
Detailná odpoveď:
Predstavte si, že agent je nový kolega, ktorému dáte prístup do systémov. Budete mu dávať vaše heslá? Nie. Presne tu je zlaté pravidlo: samostatná identita agenta, delegované oprávnenia, krátkožijúce tokeny, revokácia, audit. OpenID report vyslovene rieši potrebu oddeliť autentifikáciu agenta od autentifikácie používateľa a zachytiť „intent to delegate“, aby ste vedeli preukázať, kto a prečo dal agentovi právo konať.
Prečo vám to extrémne uľahčí život:
Keď to nastavíte raz, môžete bezpečne škálovať agentov na viac workflowov bez toho, aby ste pri každom novom nápade riskovali chaos a úniky. Navyše sa tým prirodzene približujete aj tomu, čo od organizácií vyžaduje moderný „AI literacy“ a risk-based prístup v EÚ.
Aká je moja „hranica autopilota“ a ako bude vyzerať denný report toho, čo agent urobil?
Detailná odpoveď:
Definujte vopred dva zoznamy: „bez potvrdenia“ (môže robiť sám) a „iba s potvrdením“ (musí sa opýtať). Toto kopíruje prístup agentických systémov, ktoré pri reálnych dôsledkoch vyžadujú explicitné povolenie a pri citlivých akciách preferujú takeover režim.
Denný report má mať tri časti: (1) čo agent spravil (kroky), (2) na základe čoho (zdroje/kontext), (3) čo odporúča ďalej (ďalší krok + riziko). Bez toho sa agentické systémy nedajú dlhodobo debugovať a škálovať — preto sa v agentických SDK zdôrazňuje tracing/observability a v bezpečnostných rámcoch sa upozorňuje na riziká ako prompt injection či únik systémových pravidiel.
Prečo vám to extrémne uľahčí život:
Lebo získate pocit kontroly bez mikromanažmentu. Agent vám bude šetriť čas, ale zároveň nikdy nebudete „prekvapený“, čo sa stalo — a to je rozdiel medzi profesionálnym využitím AI a chaosom, ktorý ničí dôveru.
Na čo ľudia často zabudnú (a je dobré to doplniť už dnes):
- Vyjasniť si, ktoré dáta sú „zakázaná zóna“ a nikdy do nich agenta nepúšťať (ani cez prompt, ani cez systémové inštrukcie).
- Nastaviť limity spotreby (čas, počet krokov, náklady), aby agent nemohol vyrobiť „denial of wallet“ alebo sa nezacyklil.
- Oddeliť interné dokumenty a RAG indexy podľa oprávnení, lebo vektorové databázy sú samostatná bezpečnostná plocha (multi-tenant úniky a embedding slabiny sú reálne riziká).
- Zaviesť „AI gramotnosť“ ako normu (nielen tool, ale kultúra): kto môže čo delegovať, kto kontroluje, čo je incident, ako vyzerá rollback.

