· András Kő · Digitális szervezet
Mit gondol a világ a digitalizált szervezetekről?
A legnagyobb kutatóműhelyek szerint az AI-projektek kudarca főleg nem technológia, hanem szervezet és folyamat: mi bukik el, miért, és hogyan érdemes újratervezni a munkát.

(attachment:efa87c6a-7e61-4980-adb2-1b950258f31b:Kepernyofoto_2026-04-07_-_12.05.17.png)
Mindenki AI eszközökről beszél. Milyen modellt válasszunk, melyik prompt a legjobb, melyik chatbot a legokosabb. Közben a meghatározó intézetek, úgy mint a Harvard, az MIT, a Stanford, a McKinsey és a BCG kutatói már egészen másról írnak. Nem az AI technológiáról, hanem arról, mi történik a szervezettel körülötte.
Az elmúlt hónapokban végigolvastam a legfrissebb nemzetközi kutatásokat, amelyeket a világ vezető intézetei publikáltak a digitalizált szervezetekről. Amit találtam, az nem promptgyűjtemény. Nem eszközlista. Hanem egy meglepően egybehangzó üzenet arról, hogy miért bukik el az AI-bevezetések túlnyomó többsége - és mit csinálnak másképp azok, akiknek sikerül.
Ezt az üzenetet szeretném megosztani. Nem azért, mert szeretem a kutatásokat (bár igen), hanem sokkal inkább azért, mert húsz éve szinte mindig ugyanazt látom: a technológia beszerzése élmény - a bevezetés pokol. Nem azért, mert rossz a szoftver. Hanem mert a szervezethet rosszul közelítünk.
A nagy szemléletváltás: az AI nem eszköz, hanem kolléga
Az első dolog, ami szembetűnik a kutatásokban, egy fogalmi fordulat. A világ vezető szervezetelméleti kutatói - köztük Sebastian Raisch a Genfi Egyetemről, a terület egyik legtöbbet hivatkozott szerzője - már nem az AI-t mint technológiát vizsgálják. Hanem az AI-t mint szervezeti szereplőt.
Ez nem szójáték. A különbség óriási.
Ha az AI eszköz, akkor megveszem, beüzemelem, és működik - vagy nem 🙂. Ha azonban az AI szervezeti szereplő, akkor szerepköre van, felelőssége, helye a csapatban, és ha ezek nincsenek - akkor nem egyszerűen nem működik. Hanem rombol.
Dellermann és társai már 2019-ben bevezették a „Hibrid Intelligencia" fogalmát a Business & Information Systems Engineering hasábjain. A definíció szép és pontos: „az emberi és mesterséges intelligencia kombinálásával komplex célok elérésére való képesség, amellyel mindkét fél egyedül elérhető eredményeinél jobb eredmények születnek." A lényeg nem a technológián van. Hanem a kombinálás módjának megtervezésén.
A McKinsey 2025-ös „Ágens Szervezet" modellje erre egy teljes szervezeti architektúrát épít. Kis csapatok - 2-5 ember - felügyelnek 50-100 specializált AI ágenst, akik teljes végponttól végpontig tartó folyamatokat futtatnak. A modell három új munkaerő-archetípust vezet be: az M-alakú szupervízort, aki széles rálátással irányítja az ágenscsapatot; a T-alakú szakértőt, aki mély szaktudással járul hozzá; és az AI-erősítésű frontvonalbeli dolgozót. A hierarchikus piramis - a modell szerint - laposabb, eredményorientált struktúráknak ad helyet.
Az EY 2025-ös keretrendszere még tovább megy. A hagyományos fehérgalléros és kékgalléros felosztás mellé bevezeti a „zöldgalléros" és a „szürkegalléros" kategóriát - az AI ágensek gallérait. A zöldgalléros elemző feladatokat végez, a szürkegalléros operatívat. És a kulcsmondat: a szervezeteknek „kollégaszemlélettel" kell kezelniük az AI-t, nem eszközszemlélettel.
He és társai 2021-ben, majd bővítve 2025-ben a Frontiers in Artificial Intelligence-ban kidolgozták a „Négylevelű Lóhere" szervezeti modellt. Az alapötlet Charles Handy klasszikus Lóhere-szervezetéből indul - a szakmai mag, a rugalmas munkaerő és az alvállalkozók mellett megjelenik egy negyedik „levél": az intelligens gépek munkaereje.
Hogy ez nem játék, azt egy 2025-ös MIT Sloan Management Review és BCG közös kutatás mutatja - 1221 vezetőt és 36 nemzetközi szakértőt kérdeztek meg. Az eredmény: a szakértők 69%-a egyetért abban, hogy az AI ügynökök megléte alapvetően új vezetési megközelítéseket igényel. A javaslat: az AI rendszereket vegyék fel a szervezeti ábrába, világosan meghatározott szerepkörökkel és riportálási vonalakkal, és ugyanazokkal a HR-folyamatokkal kezeljék, mint az emberi munkaerőt - onboarding, teljesítménymérés, továbbképzés. (azt csendben azért kiegészítésként megjegyzem, hogy az hiba lenne ha ugyanaz lenne a folyamat, de azt osztom hogy ugyanonnan kell megközelíteni csak másmilyenre kell ezeket kialakítani)
Ez nem jövőkép. Legalábbis azoknál, akik komolyan veszik, ez a jelen. Nálam is ez van, egyedül dolgozom, de a fejlesztésekben kb 10 ügynök dolgozik be különböző szerepkörökben.
A számok, amelyeket nem akarunk meghallani
Most jön az a rész, amit a technológiai cégek marketinganyagaiban nem szoktak leírni.
A RAND Corporation - nem egy blog, hanem az a kutatóintézet, amely az amerikai védelmi minisztérium számára is dolgozik -2024-2025 között kimutatta: az AI projektek több mint 80%-a megbukik. Ez kétszerese a hagyományos IT-projektek bukási arányának.
Az S&P Global Market Intelligence felmérése szerint 2025-ben a cégek 42%-a hagyta el AI-kezdeményezéseinek többségét - szemben a 2024-es 17%-kal. A McKinsey ugyanebben az évben leírta: a vállalatok mindössze 1%-a tartja érettnek a generatív AI-stratégiáját.
A BCG kutatása még árnyaltabb: a munkavállalók több mint 85%-a az AI-használat alapszintjén ragad - információkérés vagy egyszerű feladattámogatás szintjén. Kevesebb mint 10% jut el a félautonóm együttműködésig.
És egy még legfontosabb szám: a McKinsey 2025-ös kutatása szerint azok a szervezetek, amelyek jelentős pénzügyi megtérülést mutatnak az AI-ból, kétszer nagyobb valószínűséggel újratervezték a teljes munkafolyamataikat, mielőtt AI modellt választottak volna. Nem közben. Nem utána. Előtte.
Az összes nagy kutatás egybehangzó megállapítása - és ezt így, szó szerint érdemes megjegyezni: az AI-transzformáció kudarca elsősorban szervezeti és folyamatprobléma, nem technológiai probléma. A szakma „10/20/70 szabálynak" hívja: 10% algoritmus, 20% technológia, 70% ember és folyamat.
Hét fal a szervezetben
2026 márciusában a Harvard Business Review publikálta talán az év legfontosabb cikkét erről a témáról. Karim Lakhani, a Harvard Business School professzora, Jared Spataro a Microsofttól és Jen Stave a Harvard D³ Intézetétől jegyezték. A Frontier Firm Initiative keretében tucatnyi globális szervezet vezetőit kérdezték meg arról, miért akadnak el az AI-transzformációk.
A központi tézisük: „Az előrehaladás elsődleges akadálya ritkán a modellminőség vagy az adatelérhetőség, hanem inkább a transzformáció utolsó mérföldje, ahol a technikai képességnek találkoznia kell a szervezettervezéssel."
Hét konkrét falat azonosítottak.
Az első a pilotok burjánzása. Ismerős helyzet: a szervezet „pilotban gazdag, de transzformációban szegény". Százával futtatnak sikeres kísérleteket, amelyekből soha nem lesz skálázott megoldás. Mindenki lelkes a prototípusnál -- de senki nem vállalja a rendszerszintű változást.
A második a produktivitási rés. Egyéni szinten mindenki gyorsabb lesz -- de a pénzügyi eredményben ez nem jelenik meg. A kutatók egy globális fizetési hálózatot hoznak példának, ahol 99%-os copilot-elfogadottságot értek el. Nulla mérhető pénzügyi javulással.
A harmadik a folyamatadósság. Évtizedek alatt felvásárlásokon, szervezeti változásokon, földrajzi terjeszkedésen keresztül rárakódott széttöredezett munkafolyamatok. Ezekre nem lehet egyszerűen AI-t ráhúzni.
A negyedik - és szerintem a legfontosabb - az alaptudás identitásproblémája. A mély szaktudás az emberek fejében él. Amikor ezt AI-ba kódolják, fenyegeti azokat, akiknek a státusza abból származott, hogy „ők azok, akik tudják". Ezek az emberek nem azt kérdezik, hogy az AI jó-e. Azt kérdezik: „Akkor most mi lesz velem?" Mert még mindig magát a lexikális tudást féltik másoktól, azt amit le lehet írni egy lexikonban is ugye. Ha valamit le lehet írni és az AI is le tudja ismételni az csak adat. A tudás az, amikor a tapasztalatod alapján képes vagy a helyzetben az adatot jól felhasználni. Ehhez gondolkodni kell, ami sokaknál bizony nehéz.
Az ötödik az ágens-kormányzás - a hagyományos „ember a hurokban" kontrollok összeomlanak a többágenses architektúrák alatt.
A hatodik az architektúrális komplexitás - a legacy rendszerek ellenállnak az integrációnak.
A hetedik pedig a hatékonysági csapda: a szervezetek az inkrementális javítgatást választják az átgondolt újratervezés helyett. (szerintem egyébként ez a helyes, mármint a fejlődést inkrementális módon benne tartani az szervezetben. Viszont azzal is szembe kell nézni, hogy van amikor nem megkötjük egy dróttal a rendszert hanem újat hegesztünk. Ehhez is ember kell, hogy a kettő között különbséget tudjon tenni.)
Egy kérdés, ami mindent megváltoztat
Lakhani kutatócsoportja egyetlen kérdést javasol. Nem keretrendszert. Nem módszertant. Egyetlen kérdést:
„Ez a munkafolyamat létezne-e, ha a céget ma a semmiből építenénk?"
Ezt hívják „tiszta lapos újratervezésnek". Nem azt kérdezi, hogyan illesszük be az AI-t a meglévőbe. Azt kérdezi, hogy a meglévő megérdemli-e, hogy maradjon.
Ez összhangban van Erik Brynjolfsson stanfordi közgazdász „Produktivitási J-görbéjével", amelyet 2021-ben publikált. A J-görbe azt mutatja: a produktivitási nyereség csak azután realizálódik, miután a cégek költséges szervezeti és immateriális beruházásokat hajtottak végre. Előbb befektetsz -- és sokáig nem látsz eredményt. A görbe lefelé megy. Aztán -- ha jól csináltad -- hirtelen emelkedni kezd. De a legtöbb cég pont fordítva csinálja: előbb vár megtérülést, és utána hajlandó változtatni.
A Stanford WORKBank adatbázisából kidolgozott Emberi Ágensség Skála -- a HAS -- ötszintű feladatosztályozást kínál: H1 szinten az AI teljes egészében kezeli a feladatot, H5 szinten az emberi részvétel elengedhetetlen. 844 foglalkozási feladatra alkalmazva a kutatás megállapította, hogy a feladatok nagyjából 46%-a esik az „automatizáció zöld lámpa" kategóriába -- míg hasonlóan nagy hányad marad a „piros lámpa" zónában, ahol az emberi részvételt részesítik előnyben. Ez nem fekete-fehér kérdés. Ez egy spektrum, amit feladatról feladatra kell végigmenni.
A McKinsey kétféle eszközt javasol ehhez: a folyamatbányászatot, amely az ERP rendszerekből nyeri ki a tranzakciószintű betekintést a teljes munkafolyamatok feltérképezéséhez, és a feladatbányászatot, amely a frontvonalbeli munkatársak tényleges tevékenységeit rögzíti. A kombináció feltárja mind a strukturális hatékonytalanságokat, mind az egyéni feladatszintű automatizálási lehetőségeket.
Acemoglu és Restrepo - az MIT és a Boston University közgazdászai - 2019-ben megmutatták, hogy az új technológiák egyszerre szüntetnek meg meglévő feladatfrontokat és hoznak létre újakat. Autor és Thompson 2025-ben ezt azzal terjesztették ki, hogy az automatizáció hatása attól függ, hogy az AI alacsony vagy magas szaktudású részfeladatokat szüntet-e meg egy-egy szerepkörön belül. A következmény: nem foglalkozásokat kell elemezni, hanem feladatokat.
Ami a brit szénbányákban kezdődött
Ami engem a legjobban megragadott a kutatásokban, az nem a számok. Hanem az, hogy egy 1951-es felfedezés ma relevánsabb, mint valaha.
Eric Trist és Kenneth Bamforth brit szénbányákban vizsgálták, mi történik, amikor a munkát gépesítik anélkül, hogy a szociális rendszereket is átalakítanák. Az eredmény: mind a termelékenység, mind a morál romlik. Ebből született az „együttes optimalizáció" elve - a szociális és technikai alrendszereket együtt kell tervezni, mert az egyik optimalizálása a másik rovására szuboptimális eredményekhez vezet.
Albert Cherns ezt formális tervezési elvekbe foglalta, köztük a „befejezetlenség elvét" - annak felismerését, hogy a szervezettervezés soha nem fejeződik be.
Hetvenöt évvel később egy arXiv-on publikált keretrendszer - az „intelligens Szociotechnikai Rendszerek" - négy szintre terjeszti ki ezt a gondolatot: egyéni, szervezeti, ökoszisztéma és társadalmi szintre. Új tervezési elveket vezet be: emberközpontú együttes optimalizáció, ember által vezetett együttműködés, ember által vezetett döntéshozatal és ember által irányított közös tanulás. A keretrendszer azonosítja az AI rendszerekre jellemző sajátosságokat, amelyeket a hagyományos elmélet nem ismert: az autonóm ágensséget, a dinamikus határokat, a kognitív tanulást és a kimeneti bizonytalanságot.
Fischer és Baskerville 2020-ban egy provokatív fordulatot javasoltak: a „szociotechnikai megfordítást". A “digit-first” szervezetekben - állítják - a technikai rendszer egyre inkább formálja a szociálisat, és nem fordítva. Ez alapvetően megváltoztatja a tervezés logikáját.
Pasmore, Winby, Mohrman és Vanasse 2019-ben három előrejelzést fogalmaztak meg, amelyeket a mai napi adatok igazolnak. Először: mivel az AI technológia folyamatosan fejlődik, az együttes optimalizációnak is folyamatossá kell válnia - nem elég egyszer átalakítani. Másodszor: a szervezettervezés többé nem egyszeri projekt, hanem állandó állapot. Harmadszor: az AI újraelosztja a hatalmat a központtól a periféria felé.
Sebastian Raisch 2021-es cikke az Academy of Management Review-ban az „Automatizáció-Augmentáció Paradoxont" írja le. Az automatizáció - amikor az AI emberi feladatokat vált ki - és az augmentáció - amikor az AI emberi képességeket erősít - nem alternatívák. Egymástól fgenek, paradox feszültségeket teremtenek, és a szervezeteknek egyidejűleg kell kezelniük mindkettőt. Ez magyarázza, miért buknak el az egyszerűsítő „automatizáljunk mindent" vagy „csak támogassunk" stratégiák.
Érdekesség: Thomas Malone, az MIT kollektív intelligencia kutatója 2024-es Nature metaanalízisében kimutatta, hogy az ember-AI együttműködések gyakran alulteljesítenek - mind a pusztán emberi, mind a pusztán AI teljesítményhez képest. Nem az együttműködés az automatikus megoldás. Jól megtervezett együttműködés kell!
A kisebb cég előnyben van
A nagy kutatások nagyrészt nagyvállalati kontextusban születnek. De van egy paradoxon, ami a magyar KKV-k számára különösen fontos.
Az OECD 2025-ös felmérése több mint 5000 kis- és középvállalkozásról hét országban megállapította: a KKV-k 31%-a már használ generatív AI-t, de a használók közül csak 29% alkalmazza alaptevékenységében. A középvállalatok közel kétszeres arányban adoptálnak, mint a mikrovállalkozások - 45,8% szemben 23,6%-kal. De - és ez a riasztó -- a KKV-knak csak egyharmada biztosít képzést, határoz meg belső irányelveket, vagy kutatja a jogi kérdéseket.
Az AI Chamber 2025-ös közép-európai jelentése - 3200 munkavállalót felmérve 11 országban, köztük Magyarország szomszédaiban - négy archetípust azonosított a KKV-k között: a tudatos de akadályokkal küzdő, a gyakorlati optimista, a közömbös, és a digitálisan visszahúzódó. A „digitálisan visszahúzódó" cégek 69%-a tíz évnél régebben működik. A fiatalabbak nyitottabbak.
A jelentés központi következtetése pontosan azt mondja, amit a többi kutatás is: „az AI-adoptáció valódi lehetővé tevő tényezője nem a technológia elérhetősége, hanem a szervezeti érettség, az üzleti stratégia és a vezetői vízió."
A legmeglepőbb eredmény egy 305 európai KKV-t vizsgáló tanulmányból jött, amelyet a Nature publikált 2025-ben: a pénzügyi erőforrások nem mutattak szignifikáns hatást az AI-adoptációra, ha a belső szervezeti képességek erősek voltak.
Megérdemli, hogy kétszer elolvassuk: nem a pénz a szűk keresztmetszet. A szervezeti érettség.
A kutatások a KKV-k valódi előnyeit is azonosítják: rövidebb döntési utak, kevesebb vezetői szint, közvetlen vezetői részvétel a megvalósításban. Az AI „erősokszorozóként" működik a lean csapatok számára - lehetővé téve, hogy egy kis munkatársi csoport egy sokkal nagyobb vállalat elemzési mélységét és működési kapacitását érje el.
Az EU-ban a vállalkozásoknak mindössze 13,5%-a használt AI-t 2024-ben - 3%-tól Romániában 28%-ig Dániában. Közép-Európában (és nálunk is, ahogy egy korábbi cikkemben írtam) hatalmas a kiaknázatlan potenciál. Magyarország elfogadta a 2025. évi LXXV. törvényt az EU AI-rendelet implementálásáról. Az EU „Apply AI Strategy"-ja és az „AI Continent Action Plan"-ja kifejezetten a KKV-k adaptációját célozza szabályozási sandboxokkal és egyszerűsített megfeleléssel.
Az ember a rendszerben - amiről a legkevesebb szó esik
A technológiai cikkek ritkán írnak arról, ami a bevezetés sikere vagy kudarca szempontjából a legmeghatározóbb: mi történik az emberek fejében.
Az „algoritmikus averzió" fogalmát Dietvorst, Simmons és Massey 2015-ben írta le - az emberek természetes ellenállását az AI-alapú döntésekkel szemben. Logg, Minson és Moore 2019-ben az ellentétét is leírta: az „algoritmikus értékelést", amikor az emberek előnyben részesítik az AI javaslatát a sajátjukkal szemben. Egy 2024-es MIS Quarterly tanulmány oldotta fel az ellentmondást: az emberek ellenállnak az AI-nak, amikor magukat szakértőnek tekintik és értékelik, amikor nem. A legerősebb eszköz az averzió feloldására? A társadalmi normák. Amikor az AI-használat normává válik egy csoporton belül, az ellenállás természetesen értékeléssé fordul.
Egy 2025-ös tanulmány ráadásul konzisztens ellenállást talált magával a „mesterséges intelligencia" címkével szemben - ami arra utal, hogy a terminológia és a keretezés jelentősen befolyásolja az elfogadottságot.
A mélyebb probléma az identitásfenyegetés. Mirbabaie és társai 2022-ben az Electronic Markets-ben három központi előrejelzőt azonosítottak: a munkatartalom változása, a státuszpozíció elvesztése, és egy különálló „AI-identitás" megjelenése a munkahelyen. Selenko és társai ugyanebben az évben egy funkcionális identitás-keretrendszert javasoltak: az AI hatása a szakmai identitásra attól függ, hogy a bevezetés kiegészíti, helyettesíti vagy generálja-e a feladatokat - és hogyan érinti a munka szociális szövetét. A megoldás: „liminálz terek" - átmeneti, biztonságos környezetek, amelyek lehetővé teszik az új tanulást és identitás-adaptációt.
Georganta és Ulfert kísérleti kutatása 2024-ben egy meglepő eredményt hozott: az ember-AI csapatban való részvétel önmagában nem vezetett alacsonyabb interperszonális bizalomhoz, ha az AI kompetenciája megalapozott volt. Az érzelmi bizalom alacsonyabb volt - de a kompetencia-alapú bizalom nem mutatott különbséget. A következtetés: az AI-al való bizalomépítésben nem a kapcsolatépítés a kulcs. A kompetencia demonstrálása.
Amy Edmondson, a Harvard pszichológiai biztonság kutatója 2026 februárjában a HBR-ben arról írt, hogyan okoz az AI-integráció csapatbizalom-eróziót és önbizalomvesztést -- a produktivitásnövekedés ellenére. Egy 381 dél-koreai munkavállalóval végzett háromhullámos tanulmány kimutatta: az AI-adoptáció szignifikáns negatív hatással van a pszichológiai biztonságra, ami növeli a munkavállalói depressziót. Edmondson többfunkciós AI-tanulóközösségeket, formális pszichológiai biztonsági mérőszámokat és „AI-shadowing" programokat javasol.
A strukturált változásmenedzsment irodalma réteges megközelítést ajánl: Lewin háromfázisú modellje - Felolvasztás, Változás, Befagyasztás - adja a makrostruktúrát; az ADKAR - Tudatosság, Vágy, Tudás, Képesség, Megerősítés - az egyéni felkészültséget követi nyomon. Az Erőforrás-megőrzés elmélet magyarázza a kettős hatást: az AI felszabadít kognitív erőforrásokat, lehetővé téve a proaktív viselkedést - de kimeríthet érzelmi erőforrásokat, magányt okozva. A vezetői érzelmi támogatás a kritikus moderátor.
A szabályozás is formálódik
A governance keretrendszerek az elmúlt két évben sokat fejlődtek. Az ISO/IEC 42001:2023 a világ első tanúsítható nemzetközi AI menedzsmentrendszer-szabványa, 38 konkrét kontrollal. A NIST AI kockázatkezelési keretrendszere négyfunkciós struktúrát ad: Govern, Map, Measure, Manage. Az EU AI Act pedig a foglalkoztatási és HR területen alkalmazott AI-t magas kockázatúnak minősíti.
A legfrissebb és talán legpraktikusabb a szingapúri kormány 2026 januári keretrendszere - a világ első dedikált governance modellje kifejezetten az ágens AI-ra. Négy pillére: kockázatok értékelése és korlátok felállítása, emberek érdemi felelőssé tétele, érdemi felügyelet tervezése, technikai kontrollok bevezetése. Az ágenseknek egyedi azonosítóik vannak, amelyek emberi felügyelőkhöz kapcsolódnak, és a rendszer fokozatos autonómiát biztosít - meghatározott emberi felügyeleti triggerekkel.
A Deloitte Tech Trends 2026 jelentésében bevezeti a „szilícium-alapú munkaerő" fogalmát: az AI ágensek kezelése az emberi munkaerő mellett, öt stratégiai kérdés mentén - milyen ágensek, milyen költségprofillal, mely folyamatok automatizálva, mi az optimális ember-digitális mix, és hogyan fejlődik a munkaerő.
Az ágens-interoperabilitás kialakulóban lévő technikai szabványai -- a Model Context Protocol, az Agent-to-Agent Protocol és az Agent Communication Protocol -- több kormányzási keretrendszerben is kritikus infrastruktúraként szerepelnek.
Mit jelent mindez?
Öt konvergáló kutatási áramlat ad ma teljes alapot a hibrid szervezetek tervezéséhez: a szociotechnikai rendszerelmélet a legmélyebb tervezési elveket; az automatizáció-augmentáció paradoxon annak magyarázatát, miért bukik el az egyszerűsítő stratégiák; az „utolsó mérföld" kutatás a konkrét szervezeti súrlódások azonosítását; a feladatkompozíciós keretrendszerek a szisztematikus folyamatauditot; és a szervezetpszichológia az emberi ellenállás kezelésének mechanizmusait.
Három felismerés különösen fontos a magyar KKV-k számára:
Először: a belső szervezeti képességek fontosabbak a technológiánál vagy a tőkénél. Ez azt jelenti, hogy a kérdés nem az, „mennyi pénzem van AI-ra" - hanem az, „milyen szervezetem van".
Másodszor: a „tiszta lapos" kérdés - „ez a folyamat létezne-e, ha a céget ma a nulláról építeném?" - erőteljesebb diagnosztikai eszköz, mint bármilyen technológiai audit.
Harmadszor: a transzformációs programoknak a látható példamutatásra kell építeniük, nem a felülről jövő mandátumokra. A kutatás egyértelműen mutatja: amikor az AI-használat normává válik egy csoporton belül, az ellenállás természetesen elolvad.
A világ kutatói egyetértenek: 10% algoritmus, 20% technológia, 70% ember és folyamat.
A kérdés nem az, milyen AI-t választ a cég. A kérdés az, milyen szervezetet épít mögé.
Források:
- Raisch, S. & Krakowski, K. (2021). Automation-Augmentation Paradox. Academy of Management Review.
- Dellermann, D. et al. (2019). Hybrid Intelligence. Business & Information Systems Engineering.
- He et al. (2021, bővítve 2025). Four-Leaf Clover Organization. Frontiers in Artificial Intelligence.
- McKinsey (2025). The Agentic Organization. / The State of AI.
- EY (2025). Four-Collar Framework.
- MIT Sloan Management Review / BCG (2025). 1221 vezető felmérése az ágens AI-ról.
- Lakhani, K., Spataro, J. & Stave, J. (2026). The Last Mile of AI Transformation. Harvard Business Review.
- Brynjolfsson, E. (2021). The Productivity J-Curve.
- Brynjolfsson, E. & Mitchell, T. (2017). Occupation-to-task decomposition.
- Acemoglu, D. & Restrepo, P. (2019). Displacement-versus-creation model.
- Autor, D. & Thompson, N. (2025). Expertise framework.
- Malone, T. (2024). Human-AI collaboration meta-analysis. Nature.
- RAND Corporation (2024-2025). AI projekt bukási arányok.
- S&P Global Market Intelligence (2025). AI-kezdeményezések feladása.
- BCG (2025). Munkavállalói AI-használat szintek.
- OECD (2025). 5000+ KKV-felmérés hét országban.
- AI Chamber (2025). Közép-európai AI-adoptációs jelentés, 11 ország.
- Nature (2025). 305 európai KKV AI-adoptációs tanulmány.
- Trist, E. & Bamforth, K. (1951). British coal mining study. Human Relations.
- Cherns, A. (1976, 1987). STS design principles.
- iSTS Framework (2024). arXiv.
- Pasmore, W. et al. (2019). STS in the digital era. Journal of Change Management.
- Fischer, C. & Baskerville, R. (2020, 2023). Sociotechnical reversal. Journal of Database Management.
- Simón, M. et al. (2024). Dynamic Capabilities for Human-AI Teaming. Journal of Business Research.
- Ulfert-Blank, A. & Georganta, K. (2023). Team Trust Framework. European Journal of Work and Organizational Psychology.
- Stanford HAS / WORKBank (2025). Human Agency Scale.
- Dietvorst, B. et al. (2015). Algorithm Aversion. / Logg, J. et al. (2019). Algorithm Appreciation.
- MIS Quarterly (2024). Algoritmikus averzió/értékelés integráció.
- Mirbabaie, M. et al. (2022). AI Identity Threat. Electronic Markets.
- Selenko, E. et al. (2022). Functional-identity framework. Current Directions in Psychological Science.
- Georganta, K. & Ulfert, A. (2024). Trust in Human-AI Teams. JOOP.
- Edmondson, A. (2026). AI and Psychological Safety. Harvard Business Review.
- ISO/IEC 42001:2023. AI management system standard.
- NIST AI RMF 1.0 (2023). AI Risk Management Framework.
- Singapore Model AI Governance Framework for Agentic AI (2026).
- Deloitte Tech Trends 2026. Silicon-based workforce.
- KPMG Trusted AI Framework (2025).
#TeljesEgy




