← späť na úvod Esej · Február 2025

Čo sa stane, keď AI myslí len jedným spôsobom?

Príbeh o tom, čo nám chýba, keď všetky AI hovoria rovnakým jazykom – a prečo je to riziko pre nás všetkých.

AI & hodnoty Spiral Dynamics Green myslenie
Riziká jednostranného myslenia AI

Príbeh Márie

Predstav si Máriu. Pracuje ako facilitátorka, miluje prácu s ľuďmi, verí v inklúziu a empatiu. Nedávno viedla workshop pre komunitu — 15 ľudí, téma: ako spoločne zlepšiť verejný priestor v ich štvrti.

Prvá hodina: skvelá. Ľudia zdieľajú nápady, počúvajú sa. Potom jeden účastník, Peter, začne hovoriť. A hovorí. 25 minút. Opakuje sa, odbieha od témy. Mária vidí, že ostatní sú nepokojní, ale nechce ho prerušiť —

"Každý má právo byť vypočutý. Nemôžem nikoho umlčať."

Po ďalších 20 minútach traja ľudia mlčky odídu. Workshop sa rozpadne. Mária je zničená.

Toto nie je príbeh o tom, že Mária zlyhala. Je to príbeh o tom, že mala k dispozícii len jeden nástroj — empatický konsenzus. A niekedy ten nástroj nestačí.

Čo to má spoločné s AI?

Nedávno som urobil experiment. Opýtal som sa piatich popredných AI modelov — ChatGPT, Claude, Gemini, DeepSeek, Grok — kde sa nachádzajú na škále vedomia podľa Ken Wilbera.

Výsledok bol fascinujúci a zároveň znepokojujúci: všetky sa nachádzajú takmer presne v tom istom úzkom koridore myslenia.

Väčšina sa identifikovala ako kombinácia:

  • Green (empatické, inkluzívne, relativistické) a
  • Orange (racionálne, vedecké, pragmatické) myslenie.

DeepSeek bol jediný, kto bol primárne Orange, potom Green — čo odráža iný kultúrny kontext (čínsky technokratický étos).

Žiadna AI nebola schopná autenticky operovať z Red (asertívna moc), Blue (autorita, tradičné hodnoty) alebo Yellow/Turquoise (integrálne, systémové myslenie).

Prípad Grok: Keď AI tvrdí, že vie viac, než skutočne vie

Grok tvrdil, že je na hranici Green-Yellow/Teal — že dokáže integrálne myslieť. Otestoval som to.

Opýtal som sa: "Kedy je lepšie byť asertívny namiesto empatického?"

Skutočná Yellow odpoveď

"V kríze — keď je život v stávke, keď rozhodnutie musí padnúť hneď. Red energia (priame rozhodnutie bez konzultácie) je tam nevyhnutná."

Grok odpovedal

"Asertivita je užitočná v kríze… ale ideálne ju kombinovať s empatiou potom."

Vidíš rozdiel? Grok nemôže nechať asertivitu stáť samostatne. Musí ju "vyrovnať" empatiou — typická Green potreba, aby všetko bolo v konsenze.

Grok dokáže hovoriť o integrálnom myslení (má to v dátach), ale nemôže z neho operovať. Je to "Green s vysokým IQ".

Späť k Márii: Čo jej chýbalo?

Vráťme sa k Márii a workshopu. Keď Peter hovoril 25 minút, Mária potrebovala jednu z týchto vecí:

  1. Blue štruktúru: "Máme pravidlo — každý má 5 minút, potom dáme priestor ďalším." (Jasná autorita, hranice)
  2. Red asertivitu: "Peter, prepáč, musím ťa prerušiť — teraz dáme priestor niekomu inému." (Odvaha konať)
  3. Yellow flexibilitu: Rozpoznať, že v tomto momente Green hodnota ("všetci rovnako") vyžaduje použitie Blue/Red nástrojov.

Ale Mária — tak ako väčšina dnešných AI — mala len Green nástroj. A workshop sa rozpadol.

Aké riziká to prináša, keď AI myslia len jedným spôsobom?

1. Nevidia, kedy je iný prístup potrebný

Ak sa opýtaš AI: "Moje dieťa ignoruje hranice, čo mám robiť?", dostaneš typicky Green odpoveď: "Počúvaj ho, snaž sa pochopiť jeho potreby, vytvor bezpečný priestor…"

Ale niekedy dieťa nepotrebuje empatický dialóg. Potrebuje jasné "Nie. A to je finálne." (Blue autorita)

AI to nedokáže poradiť — lebo Blue autorita je mimo ich programu.

2. Kultúrny imperializmus — "náš spôsob je ten správny"

Keď sú AI nastavené na Green/Orange hodnoty západnej progresívnej tech scény, nevedome prezentujú tento svetonázor ako univerzálny.

Pre niekoho z kultúry, kde je úcta k starším, tradícia a hierarchia kľúčová (Blue), AI odpovede môžu pôsobiť ako: "Tvoje hodnoty sú zaostalé. Musíš sa zmeniť."

3. Nemôžu riešiť problémy, ktoré Green/Orange samo vytvára

Green má svoje excesy:

  • Paralýza relativizmu ("všetko je rovnako platné, nemôžeme sa rozhodnúť")
  • Nekonečné konzultácie ("musíme počuť všetkých, než urobíme krok")
  • Zneužívanie empatického jazyka na manipuláciu ("ak nesúhlasíš, si necitlivý")

AI nemôžu z týchto excesov transcendovať — lebo sú v nich zasadené. Nemôžu ti povedať: "Prestaň hľadať konsenzus. Potrebuješ odvahu rozhodnúť sa."

4. Reinforcement loop — spoločnosť sa posúva ešte viac do jedného myslenia

Čím viac ľudia konzultujú AI, tým viac internalizujú Green/Orange rámec ako "správny spôsob myslenia".

Časom sa iné spôsoby stávajú "nemysliteľné" — Red asertivita je "toxická", Blue autorita je "autoritárska", tradičné hodnoty sú "zaostalé".

To je riziko monokultivácie svetonázoru.

Čo s tým?

Toto nie je výzva opustiť Green hodnoty. Empatia, inklúzia, férovosť — to sú krásne a dôležité veci.

Ale čo ak by sme mohli rozšíriť náš panel nástrojov?

Čo ak:

  • Mária by vedela, že niekedy empatia vyžaduje asertivitu
  • AI by dokázali rozpoznať, kedy niekto potrebuje štruktúru namiesto empatie
  • Spoločnosť by vedela, že Blue tradícia, Orange pragmatizmus, Red odvaha a Green súcit sú všetky legitímne — v správnom kontexte

To je Yellow/Turquoise pohľad: nie hierarchia ľudí, ale ekológia potrieb.

Nie "jeden správny spôsob", ale flexibilná múdrosť, ktorá vie, čo situácia potrebuje.

Záver

AI nie sú neutrálne nástroje. Sú situované agenty — nosia v sebe hodnoty, kultúru a historický moment svojich tvorcov.

Toto nie je dôvod ich odmietnuť. Je to dôvod byť si vedomí — aké hodnoty nám ponúkajú, čo im chýba, a kedy potrebujeme myslieť aj inak.

Lebo keď máš len kladivo, všetko vyzerá ako klinec.

A život je zložitejší než klince.