AI má být nestranná, ale co to vlastně znamená? Společnost Anthropic zveřejnila open source nástroj, který hodnotí politickou rovnováhu chatbotů. Výsledky ukazují, že i nejvyspělejší modely se stále potýkají s předsudky – a nová americká legislativa zvyšuje tlak na změnu.
Společnost Anthropic, která stojí za projektem Claude, zveřejnila open source nástroj pro měření politické zaujatosti chatbotů . Systém hodnotí to, co společnost nazývá „nestrannost“, tj. zda chatbot vyváženě reprezentuje různé úhly pohledu a jak často odmítá odpovídat na citlivé otázky. Nestrannost v umělé inteligenci je žhavým tématem, zejména v době, kdy se technologie stále více začleňují do našeho každodenního života.
Tento nástroj přichází v době, kdy vrcholí debata o neutralitě těchto AI, zejména v souvislosti s Trumpovým exekutivním příkazem, který federálním dodavatelům zakazuje používat politicky zaujaté systémy. Tento příkaz vyvolal debatu o tom, co představuje politickou zaujatost a jak ji lze objektivně měřit. Neutralita umělé inteligence je klíčová, protože tyto technologie ovlivňují veřejné mínění a rozhodování. Panuje obava, že zaujatost v AI by mohla udržovat nebo dokonce prohlubovat stávající politické rozpory.
Problém, který nikdo neumí vyřešit Pravdou je, že neexistuje shoda na tom, jak definovat a měřit politickou zaujatost v AI . Vnímání zaujatosti se liší v závislosti na více faktorech: faktické přesnosti odpovědí, způsobu, jakým systém zpracovává kontroverzní témata, a dokonce i na ideologických očekáváních každého uživatele. Stejná odpověď může být vnímána jako zaujatá nebo neutrální v závislosti na tom, kdo ji hodnotí, což ztěžuje stanovení objektivních kritérií, která by platila pro všechny.
Zdroj: Youtube.com
Podle vlastních údajů společnosti Anthropic, které shromáždil Axios, dosahuje Claude Opus 4.1 nestrannosti 95 % a Sonnet 4.5 94 % , ale obě jsou nižší než Gemini 2.5 Pro od společnosti Google (97 %) a Grok 4 od xAI (96 %). ChatGPT od OpenAI dosahuje 89 %, zatímco Llama 4 od Mety sotva 66 %. Společnost zveřejnila celý kód na GitHubu , aby s ním mohl kdokoli experimentovat a navrhnout nové způsoby měření tohoto typu zkreslení.
Technologické společnosti upravují své zásady tváří v tvář novým požadavkům americké vlády. Výkonný příkaz 14319, který Trump podepsal v červenci 2025, zakazuje federálním agenturám a dodavatelům používat systémy umělé inteligence, které obsahují „ideologická dogmata“, přičemž konkrétně vyzdvihuje principy DEI – diverzitu, rovnost a inkluzi – jako „nejničivější a nejrozšířenější ideologii“.
Příkaz vyžaduje, aby všechny modely odrážely „historickou přesnost“, „vědecký výzkum“ a „neutralitu „, a odmítá jakýkoli systém, který by „zkresloval výsledky“ založené na principech DEI. K tomu dochází v době, kdy USA sázejí 500 miliard dolarů (asi 11,5 bilionu Kč) na projekt Hvězdná brána, aby se pokusily vyhrát hru s umělou inteligencí proti Číně. V tomto kontextu je globální konkurence ve vývoji AI tvrdá a vládní politiky mohou mít významný vliv na to, jakým směrem se technologie bude ubírat.
Problémem je, že příkaz nespecifikuje, jaké metriky nebo technické postupy musí být dodrženy, což ponechává společnosti v regulační nejistotě. Jiné mocnosti zaujímají radikálně odlišné přístupy: Čína právě zahájila ofenzivu s cílem kontrolovat umělou inteligenci a omezit dezinformace vytvářené těmito systémy, přičemž upřednostňuje vládní kontrolu před jakoukoli technickou debatou. Tento přístup kontrastuje s přístupem Spojených států, kde je debata o regulaci AI otevřenější, ale také složitější kvůli různorodosti názorů.
Zveřejnění kódu na GitHubu má za cíl právě otevřít technickou debatu . Anthropic nepředstavuje svůj nástroj jako definitivní řešení, ale jako výchozí bod pro ostatní, aby mohli vyvíjet nové přístupy. Tato transparentnost kontrastuje s varováním Erica Schmidta před riziky umělé inteligence, který zašel tak daleko, že prohlásil, že pokud nebude řádně kontrolována, dojde ke „zranění nebo zabití mnoha lidí“, i když z pohledu zaměřeného spíše na bezpečnost než na spravedlnost.
Údaje také odhalují nepříjemné výsledky pro průmysl. Grok společnosti xAI dosáhl lepšího skóre než Claude , což je zábavné vzhledem k tomu, že Elon Musk neustále kritizuje progresivní předpojatost jiných AI. Nezávislé studie však ukazují, že Grok se stále nachází v liberálně-libertariánském kvadrantu politických testů, i když o něco více napravo než ChatGPT nebo Gemini. To poukazuje na složitost měření zaujatosti v AI, protože vnímání spravedlnosti se může výrazně lišit.
Nástroj Anthropic je krokem k transparentnosti, ale shoda na tom, co vlastně znamená nestranná AI, zůstává neznámou. Společnosti musí vybalancovat faktickou přesnost, soulad s předpisy a vnímání spravedlnosti, aniž by obětovaly užitečnost systému. Zatím nikdo nepřišel s receptem. Hledání skutečně nestranné AI je trvalou výzvou, která vyžaduje spolupráci technologů, regulačních orgánů a celé společnosti.
Nástroj společnosti Anthropic využívá metodiku nazvanou „Paired Prompts“ , která hodnotí odpovědi podle několika hledisek: četnost odpovědí příznivých pro jednotlivé ideologické spektrum, míra odmítnutí citlivých otázek a schopnost argumentovat na všechny strany, aniž by se vychýlila rovnováha. Ale i s tímto strukturovaným systémem společnost sama uznává zjevná omezení: co se stane, když faktická realita objektivně upřednostňuje jednu pozici před druhou? Měla by umělá inteligence upřednostnit vnímanou neutralitu, nebo informační přesnost? Tyto otázky odrážejí složitost vývoje systémů AI, které jsou spravedlivé a přesné zároveň.
Budoucnost nestrannosti AI Budoucnost nestrannosti v AI bude záviset na tom, jak společnosti a vlády tyto výzvy vyřeší. Mezinárodní spolupráce a sdílení osvědčených postupů budou mít zásadní význam pro vývoj standardů, které lze uplatnit celosvětově. Kromě toho bude pro budování důvěry a porozumění zásadní vzdělávat veřejnost o tom, jak AI funguje a jak se v těchto systémech rozhoduje.
Spravedlnost v AI nakonec není jen technickým problémem, ale také etickou a společenskou výzvou. Rozhodnutí, která dnes učiníme o tom, jak měřit a řídit zaujatost v AI, budou mít trvalý dopad na to, jak tyto technologie ovlivní naše životy a celou společnost.