Musíme si promluvit o AI

Veřejná diskuse k návrhům a bodům a tématům Pirátského programu.


Moderátoři: Rada resortních týmů - členové, Garanti, Poslanecka snemovna - poslanci

Pravidla fóra

Toto je veřejné fórum pro konzultace k Pirátskému programu.
Názory zde vyjadřované nelze bez dalšího považovat za stanoviska Pirátské strany.

Každý ať se vyjadřuje jasně, slušně a k tématu. Pokud chcete řešit novou věc, založte nové téma.

Do tohoto fóra patří programová témata, která se týkají programu jako celku, více bodů nebo žádného z nich.

Odpovědět
Uživatelský avatar
David.Wagner
Republikový výbor
Příspěvky: 2195
Registrován: 06 lis 2017, 23:35
Profese: vykonavatel vůle
Dal poděkování: 944 poděkování
Dostal poděkování: 7376 poděkování

Musíme si promluvit o AI

Příspěvek od David.Wagner »

Ahoj,

musíme si promluvit o AI a myslím, že by bylo dobrý si o ní promluvit napříč stranou a otevřeně, protože nám někdo zvenku taky může přinést nějaký zajímavý vhledy. Nemyslím si, že bychom museli jít rovnou k “řekneme si jak změníme program okamžitě teď”, ale realisticky je general purpose AI největší věc která se v proměně společnosti stala minimálně od doby široce dostupných na internet napojených chytrých telefonů, spíš tak jako od průmyslové revoluce. A zaslouží si tak nějakou výměnu názorů, nápadů co chceme dělat, co chceme omezit, kde hledáme možnosti jak jít dál.

Je to taky věc, která je z principu naprosto nadresortní a má svoje odrazy ve všem od informatiky (duh) přes naší budoucí obchodní politiku (embarga cenných materiálů, bezpečnostní spolupráce) nebo po možnosti využití ve školství (a co vše mění). Spoustu našich původních konceptů a základních pravidel nějak mění a můžeme si také snadno říct, že v něčem jsme řešili problémy brzo (skryté biasy), v něčem třeba současná úprava je hodně problematická.
Nejjednodušeji: například GDPR předpokládá právo člověka na to, aby jeho osobní údaje byly zapomenuty. To je jistě super, ale pokud nakrmíme osobní údaje do třeba ChatGPT, tak je vlastně spíš technicky nemožný je zapomenout (a nejspíš to je rozsahem a četností dost jiný problém než blockchain, ze kterého také nic nesmažete). Komplexnější už jsou třeba otázky na základní pirátské principy jako decentralizace: síla a užitečnost těch modelů prudce roste s jejich velikostí (a zároveň afaik zatím nemáme úplně dobře pochopeno co se může dít při propojování).

Co bych si představoval, že tady vymyslíme?

Každý máme nějakou sféru odbornosti, ve které se pohybujeme a nějaký přání co se dá dělat. Věřím, že můžeme najít konkrétní příklady problémů a hrozeb který by nás nenapadli každýho zvlášť. Můžeme třeba zkusit navrhnout řešení nebo cesty, ale je to furt hlavně neformální debata. A můžeme se tady prostě ptát "tohle nevím, jak to dopadá na XY?". Na neformální debatu tu by ale měla časem navázat formální debata a konkrétní akce. Potřebujeme hledat principy kterými se řídit a RYCHLE je uvádět do praxe (fakt, ty škály změn jsou sotva půl roku) a myslím, že by nové RV to mělo vlastně hodně rychle začít řešit.

Věřím, že do debaty všichni půjdeme s nějakým základním poučením jak ta věc funguje a co dělá, kdyžtak rád doporučím nějaký čtení OFFTOPIC(nebo třeba tady jsem vedl rozhovor https://www.voxpot.cz/bodu-od-ktereho-u ... a-kulveit/). Věnoval jsem tomu ale dost času abych si troufl říct, že zatímco algoritmy, databáze a možnosti propojování třeba sociálních sítí a biometrických údajů či čínské "social credit score" byly jako fakt velký témata a třeba práce s daty uživatelů fakt dala vzniknout úplně novým typům podnikání a sledování, tak tady jsme u spíš tak jako možnosti civilizačního skoku.

A taky věřím, že jsme právě ta strana která dokáže pochopit a vnímat jak rizika AI a přispět typicky k výzkumu i směrem k “hej, měli bychom rozumnět tomu co se děje uvnitř pořádně a vědět s čím se ty věci propojují”, tak hlavně tu technologii maximálně přijmout a uvolnit její potenciál pro lidstvo. Stojíme před věcí, která nevyhnutelně výrazně změní pracovní trh, vědu, komunikaci a řadu činností, který jsme považovali za výlučně lidské. Byl bych hrozně rád, kdybychom k tomu časem dokázali vydávat komunikaci a hlavně pravidla, který zabrání katastrofě a umožní dobro. Typicky se klidně přiznám, že blokování přístupu národními státy k ChatGPT na základě obav o soukromí nebo plošné zákazy použití ve vzdělávání považuju za úplně blbatý řešení z více důvodů. Ale třeba v další diskuzi zjistím, že se pletu, no.
A abych byl pozitivní - za třeba velmi pozitivní a nenápadnou věc považuju chvíli, kdy @Marcel.Kolaja nahodil jako stínový zpravodaj (dnes už vlastně spíš zastaralýho) AI Actu nutnost summitu EU-USA k řešení co dál. Věřím, že naši politici v první linii jako budou schopni dělat nějak kvalitní rozhodnutí že jo.
Považuju ale za dost podstatný, abychom měli do podzimu na všech úrovních programu nějak promítnuto a aktualizováno “svět se mění, tohle v něm budeme dělat my” abychom mohli být aktivní účastníci tvorby veřejný politiky, ne náměsíčníci.

Co si o tom fenoménu myslíte? Kde vidíte ve vašich oborech rizika, přínosy, možnosti? Co bychom měli dělat na všech úrovních kde se nějak podílíme na výkonu veřejné moci?

(procedurální TL:DR - je klidně možný, že tu zůstane viset osamělý příspěvek či si nikdy jako neřekneme nic, ale fakt věřím, že v dalších měsících budeme potřebovat sahat do programu a koordinovat postup napříč stranou a zdá se mi správný začít volně a s možností si to rozmyslet, než do toho rovnou vletět)

Podporuji myšlenky.

Uživatelský avatar
Jan.Hora
Kontrolní komise
Příspěvky: 3076
Registrován: 19 led 2016, 15:51
Profese: IT analytik / Software developer (MSSQL)
Bydliště: Praha
Dal poděkování: 4851 poděkování
Dostal poděkování: 6425 poděkování
Kontaktovat uživatele:

Re: Musíme si promluvit o AI

Příspěvek od Jan.Hora »

Pokud se bavíme o současné AI (tedy spíš o kvalitním využití machine-learningu), tak z pohledu IT člověka vidím velký potenciál k dohledávání možných řešení méně obvyklých problémů. Zároveň to ale přináší riziko, že když budou lidi schopní dostat odpovědi od AI, tak přestanou navštěvovat ty původní zdroje informací - a ty pak umřou na nezájem a nízkou navštěvovanost, čímž podříznou větev AI nástroji (nebude mít kde se učit). Tj ta technologie může v tomhle ohledu fungovat trochu jako smrtící parazit, který vysaje navštěvovanost ze svých hostitelů.

To asi nevyřeší zdrojování, protože odpovědi AI by měly být agregované, tj. asi nepůjde vypálit vždy seznam zdrojů. Podle mě to v případě neřešení může vést k nějaké formě paywallování cenných služeb, aby byli jejich konzumenti nuceni dorazit přímo na web a nepoužívat AI - a to zase bude zbytečně brzdit rozvoj a evoluci toho, jak dohledáváme informace (nemluvě že to zhorší přístup k informacím pro ty, co teprve obor studují a ještě si nemůžou dovolit platit několik různých předplatných aby měli přístup k odpovědím). Nemluvě o tom, že se sníží množství volně přístupných (kvalitních) informací a dostupný bude pouze informační garbage.

Kromě toho mám obavu, že AI bude schopno systematicky monitorovat zdroje informací, které nejsou příliš chráněné, protože je nelze účinně vytěžovat lidskou silou. Nabízí se například informace z online záběrů dopravních kamer, ke kterým je volný přístup, zatímco k záznamům už nikoliv. AI by klidně mohla sbírat online data a nějak si je zpracovávat (klidně bez ukládání samotného záznamu), protože prostě na to bude mít dostatečnou sílu. Může tak být schopna volně poskytovat velmi citlivé informace o chování jednotlivců či skupin, které chceme střežit a neposkytovat je komukoliv, kdo si o ně řekne.

Ten přesah do bezpečnostní oblasti je obecně velmi nepředvídatelný a zasloužil by si velmi pečlivou úvahu, co vlastně kde máme, člověk to nedokáže vytěžit a zneužít účinně sám, ale s pomocí machine learningu už by to dokázal.

Jan Hora
KS Praha
PMS Praha 4
zastupitel MČ Praha 4
jan.hora@pirati.cz
Keep calm and practise Iaido

Uživatelský avatar
Viktor.Velek
Příznivec Pirátů – Moravskoslezský kraj
Příspěvky: 52
Registrován: 26 bře 2021, 12:12
Profese: Diplomat, státní úředník
Bydliště: Brusel
Dal poděkování: 8 poděkování
Dostal poděkování: 71 poděkování

Re: Musíme si promluvit o AI

Příspěvek od Viktor.Velek »

Ahoj,
to je samozřejmě velké téma a ty nejpalčivější věci/ rizika řeší navrhovaná unijní legislativa (AI Act, který taky zmiňuješ - draft je tuším stále ve výborech EP; naši europoslanci asi budou vědět víc). Přijde mi logické tu interní pirátskou debatu odpíchnout od této legislativy, protože ta bude rámovat použití a vývoj AI u nás (a snad nějak ovlivní i regulaci AI ve světě; asi ne v Číně, ale nepřímo určitě i tam, a jinde snad i přímo, podobně jako GDPR).

Vadí nám v AI Act něco? Chceme tam něco zásadně jinak? Ty základní východiska AI Act (human-centric and trustworthy AI, human rights safeguards) jsou podle mého správné, ale nevidím do detailů (kde často bývá pověstný devil/ zakopaný pes). Já (profesně) sleduju hlavně lidskoprávní dimenzi nových technologií, což je snad ještě obsáhlejší téma než AI a její dopady.

Každopádně chci říct, že ta pirátská interní debata a její výstupy by měly být na půdorysu unijních procesů. Jinak hrozí, že budeme brainstormovat sci-fi, která se nebude potkávat s realitou (minimálně pokud jde o regulaci). Ale souhlasím, že ta interní diskuse je výborný nápad - téma je Pirátům blízké a AI má potenciál spoustu odvětví zásadně proměnit (ale i potenciál spoustu svobod udusit)...

Uživatelský avatar
David.Wagner
Republikový výbor
Příspěvky: 2195
Registrován: 06 lis 2017, 23:35
Profese: vykonavatel vůle
Dal poděkování: 944 poděkování
Dostal poděkování: 7376 poděkování

Re: Musíme si promluvit o AI

Příspěvek od David.Wagner »

Viktor.Velek píše: 20 dub 2023, 12:51

Ahoj,
to je samozřejmě velké téma a ty nejpalčivější věci/ rizika řeší navrhovaná unijní legislativa (AI Act, který taky zmiňuješ - draft je tuším stále ve výborech EP; naši europoslanci asi budou vědět víc). Přijde mi logické tu interní pirátskou debatu odpíchnout od této legislativy, protože ta bude rámovat použití a vývoj AI u nás (a snad nějak ovlivní i regulaci AI ve světě; asi ne v Číně, ale nepřímo určitě i tam, a jinde snad i přímo, podobně jako GDPR).

Vadí nám v AI Act něco? Chceme tam něco zásadně jinak? Ty základní východiska AI Act (human-centric and trustworthy AI, human rights safeguards) jsou podle mého správné, ale nevidím do detailů (kde často bývá pověstný devil/ zakopaný pes). Já (profesně) sleduju hlavně lidskoprávní dimenzi nových technologií, což je snad ještě obsáhlejší téma než AI a její dopady.

Každopádně chci říct, že ta pirátská interní debata a její výstupy by měly být na půdorysu unijních procesů. Jinak hrozí, že budeme brainstormovat sci-fi, která se nebude potkávat s realitou (minimálně pokud jde o regulaci). Ale souhlasím, že ta interní diskuse je výborný nápad - téma je Pirátům blízké a AI má potenciál spoustu odvětví zásadně proměnit (ale i potenciál spoustu svobod udusit)...

Ahoj,

myslím, že právě tady je trochu zakopaný pes (a jak píšu výše, Marcelův návrh summitu ho aspoň trochu odhrabává) - ta legislativa reaguje hlavně na hrozby a rizika minulých let a navíc má za mě dost problém, že stanovuje rizikovost jednotlivých systémů a prostředí, ale může v tom být nechtěně trochu moc generalizující. Plus je relativně pomalá. V normálním provozu je vlastně super, že než protáhneme file všemi procesy tak to trvá dva tři roky, ale vzhledem k tomu jaké dělá general AI skoky v použitelnosti tak to může být příliš pomalé.
A to je právě problém velmi silné general AI - je zjevně velmi riziková, ale to riziko není jenom v tom, že bude například systematicky uplatňovat své biasy vůči lidem a prohloubí třeba diskriminaci ve školství. Ona k tomu v tom školství má naprosto legitimní využití široký (a vlastně je imho skoro nutný s ní začít široce pracovat) a zároveň je rizikové nejen její nasazení a užití, ale i ta technologie sama o sobě. Situace výrazně složitější než algoritmy který na základě biometriky třídí lidi na letištích (tam můžeme snadno říct "tohle je fakt blbý"), který AI Act z mého pohledu řeší přednostně.
(ale sedí na něm Marcel a jeho tým, tak k tomu něco dropnou víc, v detailu té legislativy také nejsem, mám v EP jiné povinnosti)

Podporuji myšlenky.

Uživatelský avatar
Vojtech.Pikal
Administrativní odbor
Příspěvky: 26212
Registrován: 19 srp 2010, 23:45
Profese: politik, informatik
Bydliště: Olomouc
Dal poděkování: 36996 poděkování
Dostal poděkování: 30156 poděkování
Kontaktovat uživatele:

Re: Musíme si promluvit o AI

Příspěvek od Vojtech.Pikal »

Věnoval jsem tomu nějaké noční myšlená a mám dvě poznámky;

Otázka, co to udělá s některými pracemi mě netrápí. Ne že by to nemohlo zničit nebo zásadně transformovat nějaké profese, ale to se prostě děje s novými technologiemi pořád a jako náš základní společenský problém v této oblasti vnímám, že se nedaří se zvýšenou produktivitou a efektivitou přiměřeně zvyšovat odměny a třeba snižovat pracovní dobu. A na tom to fakt nic nezmění, maximálně to ten proces někde zase akceleruje.

Zajímavá je otázka práva, posuzování strojem. Vlastně se to objevuje už dnes bez AI, kdy se střetáváte s plechovou hubou, která nepočítá s vaším problémem a proklikat se k člověku je nemožné, nebo když je vaším šéfem aplikace (Doručovací služby a tak.)
Tady by podle mě - na první dobrou - mělo platit něco, jako že "Stroj nemůže udělat nezvratné rozhodnutí v podstatné věci. Proti posouzení strojem v podstatné věci musí být možné se odvolat k člověku."
Co je podstatné samozřejmě může být dost problém definovat.

Třetí problém, který mě napadá je vlastně možnost nového útoku na společenskou diskuzi. Tam, kde jsme do nedávna měli diskuzi částečně zaměřenou trolly - lidmi, kteří nediskutují v dobré víře, ale proto, aby vyvolali emocionální reakci a rozbili diskuzi - můžeme mít robotické SPAM trolly, které bude velmi těžké rozlišit. Tady prostě vnímám obecnou potřebu začít omezovat práva robotů (všeobecně) v diskuzi a okupaci zdrojů ve veřejném prostoru. OFFTOPIC(Ano, je to trošku antropocentrické, myslím, že to je morálně obhajitelné.)

Profil, Vedoucí AO; KaS, ZO; vedoucí MRT Demokracie v rezignaci
„Nakonec vám budou vládnout ti nejneschopnější z vás. To je trestem za neochotu podílet se na politice.“*
Podporuji myšlenky.

Uživatelský avatar
Viktor.Velek
Příznivec Pirátů – Moravskoslezský kraj
Příspěvky: 52
Registrován: 26 bře 2021, 12:12
Profese: Diplomat, státní úředník
Bydliště: Brusel
Dal poděkování: 8 poděkování
Dostal poděkování: 71 poděkování

Re: Musíme si promluvit o AI

Příspěvek od Viktor.Velek »

Zrovna o využití AI v oblasti práva nebo spíše výkonu spravedlnosti, tedy u soudních rozhodnutí, se začíná mluvit, pokud už se v nějaké formě nepoužívá. "Přežvýkání" velkého množství související judikatury a navržení postupu i třeba vzhledem k trestní historii obžalovaného (pokud jde o případ trestního práva), může usnadnit rozhodování (finální verdikt samozřejmě musí být vždy na soudci; občan by se měl vždy "odvolat k člověku" v jednání se státem a jeho aparátem, u soukromých subjektů je to, obávám se, na nich, zda budou používat pouze "plechovou hubu" a frustrovat své klienty). Problém je v tom, jak smířit transparentnost soudního rozhodování s "rozhodováním" AI, které je ve své podstatě netransparentní (black box problem - známe vstupní data a výstupní produkt, ale ztrácíme znalost o samotném decision making).

Obecněji pak s AI hrozí (a to je navýsost pirátské téma), že si zopakujeme boj s různými gatekeepers (vzhledem k přístupu k informacím, vědomostem atd.), ve kterém byly internet a nové bezprecedentní možnosti lidského sdílení zásadní zbraní. Jen už to nebudou tradiční gatekeepers včerejška (světa offline), ale gatekeepers v podobě systémů AI, do jejichž rozhodování nevidíme a nelze je zpětně ověřit. A může to mít stejný de-empacipační (disempowerement) efekt jako působení tradičních gatekeepers.

Souhlasím s tím, že diskuse či obecně fungování v kyberprostoru se s AI (deepfake AI) může proměnit v ještě větší džungli než dnes a možná to i zvýší potřebu a hodnotu lidské interakce offline. Je to reálná hrozba pro fungování strany stojící na vnitřní komunikaci online? Možná to není úplně otázka dneška, ale bude možné v budoucnu zajistit autenticitu všech příspěvků na tomto foru?

Uživatelský avatar
Marketa.Gregorova
Republikové předsednictvo
Příspěvky: 1180
Registrován: 15 dub 2012, 21:18
Profese: europoslankyňa
Bydliště: Brno
Dal poděkování: 1225 poděkování
Dostal poděkování: 4290 poděkování
Kontaktovat uživatele:

Re: Musíme si promluvit o AI

Příspěvek od Marketa.Gregorova »

Díky Davide za otevření tématu, souhlasím, že je naprosto zásadní!

V EP to sleduji také, mj. proto, že jsem začala slýchat teze o tom, jak většina frakcí nemá zájem o nějakou regulace (neukázalo se jako plně pravdivé, ale trochu...), a také že se členské země nedokáží dohodnout - takže je možné, že ten zákon nevyjde ani před koncem našeho mandátu. To mi přijde vysoce alarmující. Pokusím se shrnout nejprve to, jak si teď vyjednávání AI Actu stojí, a poté přihodit i pár vlastních názorů, co tam chybí a proč to potřebujeme asap.

Zásadní prvek té navržené legislativy má být vytvoření několika kategorií umělé inteligence podle míry rizika, které pro nás může systém představovat. V první kategorii jsou algoritmy, které představují zásadní hrozbu evropským hodnotám, jako jsou lidská důstojnost nebo demokracie. Takové systémy by měly být zakázány. Jsou to např. algoritmy, které mají za účel manipulovat lidským chováním s cílem podnítit újmu druhým. K druhé kategorii směrnice řadí vysoce rizikové systémy. Ty mají být povolené, pokud budou v souladu se striktními bezpečnostními podmínkami stanovenými nařízením. Do poslední kategorie pak spadají systémy s minimálním rizikem, které podléhají nejmenší regulaci.

Otázka, na které si teď vyjednavači lámou zuby, je, co je to „riziko“ v případě AI. Rada EU ho definuje jako „kombinaci pravděpodobnosti výskytu nebezpečí (…) a stupně závažnosti (…) újmy.“ Evropské právo ovšem tuto definici spojuje především s odpovědností za škodu způsobenou vadnými výrobky. V případě např. domácích spotřebičů dokážeme přibližně odhadnout pravděpodobnost, že k újmě dojde. To ale u systémů umělé inteligence neplatí, protože jsou prostě příliš komplexní. Riziko spojené s umělou inteligencí se navíc násobí lidským faktorem – nikdo nedokáže odhadnout pravděpodobnost újmy způsobené interakcí člověka s velice složitým systémem. A ani druhou část definice nejde úplně použít. Těžko totiž vyčíslit škodu napáchanou na abstraktních konceptech, jakými jsou lidská důstojnost nebo demokracie.

Problém směrnice tedy je, že se pokouší vymezit riziko AI s nástroji vytvořenými pro klasické produkty. Ty fungují na principu zaškrtávání políček – pokud produkt splní dané kritérium, může si danou bezpečnostní zkoušku odškrtnout jako splněnou, nehledě na to, že kritérium splnil třeba jen těsně. Takhle nízká úroveň ochrany se ale nedá používat na lidská práva, přirozeně. Ta jsou v EU obvykle chráněna na základě jejich podstaty. Podle téhle koncepce má každá lidská svoboda své jádro, které musí být chráněno v nejvyšší možné míře ve všech oblastech práva. Nic, co se v EU děje, nesmí narušit podstatu žádného lidského práva nebo svobody. Jádro těchto lidských práv se tedy musí prolínat s veškerým právním řádem. Ochrana práv touto cestou je poměrně efektivní, je proto zvláštní, že se Rada rozhodla od tohodle přístupu upustit.

Můj osobní názor je, že AI Act je potřeba i v takovéto podobě - jako legislativní základ, na kterém půjde stavět hned po prvním black swan eventu.

Co ale významně postrádám a šlo by dělat už teď - kdyby byla politická vůle - je monitoring velkých tréninkových běhů, vč. potřebné výpočetní techniky. Pokud se někde splaší nějaký model, bude to nejpravděpodobněji opravdu velký model. A stejně jako země navzájem ví, kdo má jaderné zbraně, nebo i jen staví jaderné elektrárny, dá se zjistit a registrovat, když někdo bude trénovat svoji AI ve velkém.Pak je samozřejmě možné zařídit vyhodnocování jejich bezpečnosti a stanovit postupy v krizových situacích. Pokud bychom měli naše vlastní stanovisko, tyto teze bych v něm chtěla vidět reflektované.

Europoslankyňa.
Místopředsedkyňa.
Vedoucí RT EZO.

Pravda bolí.
Politika je pro všechny.
NEklikat.
Píše se to AI.

Uživatelský avatar
Lukas.Dolezal
Zahraniční odbor
Příspěvky: 2371
Registrován: 28 úno 2019, 14:48
Profese: Politolog, analytik mezinárodních vztahů
Dal poděkování: 4007 poděkování
Dostal poděkování: 3051 poděkování

Re: Musíme si promluvit o AI

Příspěvek od Lukas.Dolezal »

🤔

vtipy.JPG
vtipy2.JPG

Podporuji ██████████████████████████████████████████████████████████████.

Pomoz vytlačit okupanty z Ukrajiny. Слава Україні! Героям і Героїням слава! 🇺🇦 ✌️.

Člen MF Brno, KF Jihomoravský kraj, Zahraničního odboru a Rezortního týmu pro záležitosti Evropské unie, zahraničních věcí a obrany (RT EZO), lukas.dolezal@pirati.cz

eladar
Návštěvník – nepatří k Pirátům
Příspěvky: 460
Registrován: 04 bře 2021, 11:42
Dal poděkování: 179 poděkování
Dostal poděkování: 339 poděkování

Re: Musíme si promluvit o AI

Příspěvek od eladar »

Míchá se tu dohromady několik témat a ke každému z nich by se mělo přistupovat jiným způsobem. Zejména (nejde o vyčerpávající seznam):
a) Otázka právní a hmotné odpovědnosti. To je něco, co by se mělo (a mohlo) řešit přednostně. Kdo nese zodpovědnost za to, co AI dělá a za její výstupy? Po kom chtít náhradu škody? Dva příklady - před nedávnem koloval po internetu příběh o muži, kterého ChatGPT dohnal k sebevraždě. Netuším, jestli to je pravda nebo hoax, ale po testech ChatGPT to pokládám za zcela věrohodný scénář. Nebo jiný příklad z blízké budoucnosti - řekněme, že požádám AI, aby mě pomohla zvýšit zůstatek na účtu. A ona to provede, ale použije pro to nezákonný postup. Kdo by v takovém případě nesl odpovědnost? Toto je oblast, kterou by EP řešit mohl a měl, protože je potřeba dosáhnout v této otázce plošné shody.

b) Nepřipravenost společnosti na soužití s AI. Nikdy v minulosti lidstva se nestalo, že aby se objevila technologie, která je schopná v tak krátké době převrátit společnost naruby. Byla spousta převratných technologií, které "změnily svět", ale ty se prosazovaly pomalu a společnost se jim měla možnost přizpůsobit. Teď je to jiné. AI je schopno podkopat samotné základy fungování společnosti. Nejde ani tak o využití AI pro technologické potřeby (rozpoznávání SPZ, obarvování fotografií, diagnostika). Jde o ty aplikace, které interagují s komunitou. Např. média - využití AI pro potřeby propagandy z ní dělá zbraň, proti které je jen těžké se bránit. Je to ideální nástroj pro manipulaci - zvlášť u lidí nižšího věku, řekněme pod 30 let, kterým chybí životní zkušenosti a nemají šanci se takovému ovlivňování bránit. Dobrým příkladem je ChatGPT, který je velmi nekorektní a nadržuje určitým názorovým proudům. Nevěřím, že to byl úmysl, spíš jen kopíruje nastavení jeho autorů. Ale představte si, jakou paseku by dokázala taková technologie nadělat, pokud by byla úmyslně "zmanipulována". V podstatě to je konec demokracie a volby jsou zbytečné. Mnohem levnější bude zeptat se AI na to, jaký má být výsledek voleb - čísla budou velmi podobná jako kdyby probíhala kampaň. Podobný příklad je školství - zkušenější potvrdí, že je zásadní rozdíl mezi generací, která vyrůstala před Google a Wiki a generací, která vyrostla na nich. V průmětu má ta první má mnohem širší rozhled a je schopna si dávat věci do souvislostí. Ta druhá má sice při ruce nástroj, kde dostanou odpovědi, ale má problém se zeptat a už vůbec nejsou schopni domyslet souvislosti (zdůrazňuji v průměru, výjimky se najdou oběma směry). A teď si představte, že se do vzdělávání zapojí AI. Pak nebude potřeba se vůbec ptát, jen se zadání předá AI a výsledek vrátí učiteli - není potřeba problému rozumět a už vůbec ne mít schopnost ho vyřešit. Nebo ještě jiný příklad - před sociálními sítěmi byl základem komunikace v rámci komunity osobní kontakt. S příchodem sociálních sítí byl osobní kontakt do značné míry nahrazen virtuálními přáteli (a s tím souvisejícím fenoménem sociálních bublin, osobních útoků ve virtuálním světě a nestabilita jakýchkoli vztahů). A teď si představte generaci AI - ti vlastně žádné sociální kontakty potřebovat nebudou - AI jim vygeneruje na míru osobní sociální bublinu. Jaké to bude mít dopady na soudržnost společnosti jako celku? Katastrofální. Nebo ještě jiný - klidně se může stát, že finanční trhy v podstatě ztratí svůj význam, protože se z nich stane spekulativní kasino, kde budou mezi sebou bojovat velmi sofistikované modely. A kdokoli jiný bude sloužit jen jako slepice určená k oškubání - lidský element nebude mít proti sofistikovaným AI systémům vůbec žádnou šanci, zvlášť u krátkodobých spekulací (na druhou stranu by řešením mohl být např. zákaz krátkodobých spekulací, řekněme tak do tří let). Jak to pomůže ekonomice nebo společnosti? Nijak! S tímto vším se nakonec nějak společnost naučí žít. I když to bude znamenat její dramatické otřesy a možná i konec v podobě, jak ji známe dnes.

c) Kontrola motivace AI. To je asi největší riziko a nemyslím si, že existuje alespoň nějaká představa, jak ho omezit. S tím, jak se budou jednotlivé systémy propojovat a jak se budou nekontrolovaně učit, hrozí, že ztratíme přehled nad tím proč AI dělá to, co dělá. A může se to obrátit proti člověku nebo komunitě. Příklad - AI dostane za úkol zlepšit kondici dětí na ZŠ. AI na základě svých dat usoudí, že důvodem nízké fyzické kondice je obezita. A obezitu způsobuje cukr. Na základě toho může dojít k závěru, že potřebujeme omezit spotřebu cukru a udělá to tak, že zablokuje veškeré bankovní účty všem, kdo za poslední měsíc koupili cokoli, co obsahuje cukr. Okamžitě dojde ke zhroucení finančního systému a nepokojům. Nicméně z pohledu AI bylo zadání splněno. Je to čistě hypotetický scénář, který nejspíš nenastane, nicméně ilustruje to, že vlastně nemáme pod kontrolu to, co z AI vypadne. Nevíme na základě čeho ke svým závěrům došel a ani co tím sleduje. A to může vést k potenciálně katastrofickým následkům. Což je samo o sobě legrační, protože pokud zveřejním jakékoli tvrzení, pak se na mě sesype spousta požadavků, abych uvedl zdroje. To, co vypadne z AI je bráno jako svaté a neomylné.

qnx
Návštěvník – nepatří k Pirátům
Příspěvky: 1159
Registrován: 30 dub 2021, 10:49
Dal poděkování: 221 poděkování
Dostal poděkování: 417 poděkování

Re: Musíme si promluvit o AI

Příspěvek od qnx »

Zatím jsem narazil jen na dva problémy.
1) AI má tendenci uživatele vychovávat a to je dost otravné.
2) Cenzura je tam zakomponovaná dost tvrdě a to je zase nepřijatelné.

Pokud jde o případná omezení, tak bych se snažil eliminovat tyto dva problémy a důrazně bych požadoval naprostou neutralitu AI.

Odpovědět

Zpět na „Pirátský program“