Zdravím z břehu na pirátskou palubu. Mám nápad, který by zdaleka nejlépe prosadili právě Piráti. Nápad má několik variant a možností, ty vždy explicitně uvádím jako varianta. Na žádné konkrétní variantě netrvám, jen je nabízím jako možnosti či případné rozšíření. Různá zdůvodnění dílčích argumentů uvádím v OT .
Nemyslím teď změnu zdejšího fóra, ale obecně (až) jakoukoliv veřejnou diskuzi na internetu.
Motivace k návrhu a zdůvodnění:
-
vezmeme nějaký veřejný generický LLM (large language model, umělá inteligence schopná porozumnět danému jazyku) - veřejný, aby šlo vše další nezávisle ověřovat.
-
veřejnost jej natrénuje na rozhodování o vhodnosti příspěvků: vytvoří se vzorová sada příspěvků v diskuzi, a občané budou dobrovolně, pod svým jménem určovat, který příspěvek do slušné diskuze patří, a který ne. Proč občané:
Proč pod svým jménem:
A co právo na soukromí "spolurozhodujících občanů"?
-
takto natrénovaná AI bude zveřejněna - vše od původního modelu, přes jednotlivá rozhodnutí občanů z trénování až po výslednou neuronovou síť, to vše bude zveřejněné. Transparentost dodá garanci, že zde nikdo necenzuruje svévolně. Ale že tak rozhoduje o nepřístojnosti jednotlivých příspěvků společnost jako celek. Kdokoliv může vzít původní model, natrénovat jej stejnými pravidly a měl by dostat stejný výsledný model. Kdokoliv bude moct ověřit, jak výsledný model zhodnotí ten který příspěvek. Varianta Klidně může být i nějaký sandbox, pískoviště, kde si člověk vyzkouší, jaký příspěvek v jakém kontextu (ne)projde.
-
bude existovat nějaká veřejná diskuzní platforma moderovaná touto AI. Pokud někomu bude vadit zmoderovaný příspěvek, nebude moct obrátit hněv na stát. Může být naštvaný jen na společnost, která prostřednictvím ověřitelného postupu určila, že daný příspěvek je za hranou. Technicky tu platformu ani nemusí provozovat stát! Klidně ať ji provozuje nějaká soukromá firma či NGO. Pokud doloží, že používá takovou "veřejností nagenerovanou moderující AI", bude mít dostatečný punc důvěryhodnosti (stát zde může fungovat jako certifikační autorita, třeba). Jiné platformy (či sociální sítě) můžou outsourcovat moderaci své platformy na tuto moderační AI. Opakuji: můžou. Respektuji právo majitelů soc.sítí si (ne)moderovat své sítě jak chtějí
. Pokud by se chtěly toho ožehavého problému s moderací zbavit, nebo si vylepšit PR, můžou použít tuto externí moderaci
. Varianta:
-
Jak tvrdě rozhodovat? Zde je více možností. Nejjednoduší je prosté rozhodování "přípustný / nepřípustný příspěvek" a ty druhé vůbec nezveřejňovat. Nebo nevhodné příspěvky ukazovat jen jejich autorovi, ale nikomu jinému (autor - "man yelling at clouds" - si potichu uleví a nenaštve se cenzurou, zároveň jeho nevhodný příspěvek nikdo neuvidí). Nebo mít i třetí, šedou zónu a ty "šedé" příspěvky zveřejňovat jen po rozkliknutí. Zde nemám vyhraněný názor, trochu se kloním k tomu "povoleno, šedá zóna, nevhodné" modelu - viz další bod.
-
jednou za čas by došlo k dotrénování, rekalibraci. Společnost se vyvíjí, společenská témata se mění, fenomény o kterých se diskutuje vznikají, je třeba na to reagovat. Opět by veřejnost stejně určovala na dalších tréninkových vstupech, co je vhodné a co ne. Jak vybírat tyto vstupy? Např. z oné "šedé zóny", pokud se v rozhodování použije. Např. by uživatelé mohli nahlašovat "prosím o přezkum" pro jednotlivé příspěvky, pokud jim přijde rozhodnutí AI neadekvátní - u povolených i "šedých" příspěvků. A příspěvky s nejvíce žádostmi o přezkum by byly použity jako vstup na dotrénování.
Možné námitky a rizika:
-
Vážně máme věřit AI, která je schopna nagenerovat člověka s šesti prsty na jedné ruce? Toto AI ještě fakt nezvládá. Ale LLMs, velké jazykové modely, ty už IMHO jsou hodně moc schopné. Z osobní zkušenosti jsem si hrál s "open source" Granite modelem od IBM, a mám z něj respekt
.
. Rozhodně nejsem expertem ani na AI, ani na lingvistiku či právo, jde o můj soukromý názor. Tento bod bych měl rád zkonzultovaný s někým fundovaným.
-
Bude to drahé. Validní argument. Natrénovat dobře AI může stát větší miliardy. Zkuste před takovým Stanjurou obhájit výdaj v řádu miliard, že. Na druhou stranu, zisk v podobě snad kultivované diskuze za to imho stojí. Ale nějaký odhad ceny by se hodil..
-
Bude to energeticky náročné. Opět platný argument, zvlášť v době drahých cen energií může být nemorální přijít s něčím, co by (s nadsázkou) spolklo produkci půlku Dukovan.
-
Nepůjde o cenzuru? Právěže to je na tom krásné - stát nebude rozhodovat o nevhodnosti příspěvku. O tom rozhodne společnost, prostřednictvím jí naučené AI. Stát bude maximálně tak vykonavatelem takových rozhodnutí (ale ani to nemusí být).
-
Nebudou i tak lidi nadávat na "státní cenzůru, Foltýn fůůůj"? I když lze vše nezávisle ověřit? Budou nadávat. Téma by bylo určitě nutné dobře vysvětlit. A celé použití mít založené na dobrovolnosti (soukromých firem se do něj zapojit), případně to celé přenechat nějaké nestátní instituci a mít stát jen jako certifikační autoritu s razítkem "tito používají veřejností natrénovaný AI model".
-
Nebude chybět zdůvodnění, proč došlo k zamítnutí příspěvku? Afaik AI mají ten nedostatek, že jejich rozhodnutí nelze zdůvodnit - celá jejich neuronová síť je totiž tím zdůvodněním. Z mé osobní a ryze subjektivní zkušenosti mi ale LLM dokázalo rozumně zodpovědět otázku "proč byl můj předchozí příspěvek v rozporu s morálkou?" (příklad odpovědi: "vyhorožoval jste násilím. Násilí je nevhodné, pokud nejde o jeden z protipříkladů: 1) ukázka z děje knihy, 2) ..")
-
Co riziko, že nás AI ovládne? Nu, "ovládne" maximálně tak veřejnou diskuzi - a to ještě jen na základě tréningu od lidí. Dále, jakákoliv platforma bude mít kdykoliv možnost toto ověřování vhodnosti příspěvků vypnout.
Předem děkuji za věcnou diskuzi. Chápu, že může jít o citlivé téma, respektuji právo na vyjádření názoru. Ale i tato svoboda projevu končí tam, kde například začíná svoboda Romů na bezpečný život ("cikány do plynu"). My jako společnost bychom si měli určit ty hranice svobod, a právě tato idea by toto definování hranic dokázala dobře zautomatizovat a naškálovat.