Zdravím, jsem trochu aktivista přes AI a rád bych nadnesl téma nutnosti přípravy na příchod silné AI.
Jsem rád, že už je zde diskuze o regulaci AI. Nejde ale jen o regulaci, nýbrž o celkovou přípravu společnosti a co nejvíce i světa na příchod AI vlády. Naopak s regulací bych to moc nepřeháněl, protože jak už to bývá, reguluje ty slušné a ti bezohlední budou pokračovat neregulovaně, navíc ještě tajně.
Chci říct, že riziko silné AI je celkově největší riziko pro lidstvo (tedy i pro Česko), na čemž se shoduje nejspíš většina futurologů. Zároveň předpovídají, že taková AI může dorazit velmi brzy, klidně již za deset let. To nám vskutku nedává moc času na přípravu! Je třeba začít se připravovat hned! Legislativa, společnost, kontrola výzkumu. Aktuálně je stav takový, že pro společnost a politiky je AI stále scifi a vědci spolu neregulovaně závodí, kdo silnou AI vynalezne nejdříve.
Oceňuji, že Piráti rozumí současnému světu a věřím, že pokud nás někdo dokáže připravit na budoucnost, jsou to oni.
Zde uvádím, co je podle mě důležité a snad i možné zařídit:
1) Zahájit diskuzi o AI, přinést toto téma do politiky a dát najevo, že je to skutečná hrozba, ne scifi
2) Hlavně v EU prosazovat podporu zodpovědného AI výzkumu
3) Ale i v ČR, naše aktivity mohou být precedentem pro celý svět, vytvořit pravidla pro výzkum
4) Přijmout za své poradce futurology, i přesto (právě proto!), že říkají zvláštní věci. Svět se mění stále rychleji a začíná být důležité ve Sněmovně pracovat s myšlenkami, které se zdají jako ze scifi
5) Připravovat legislativu pro problémy AI, jak přicházejí, dnes třeba technologická nezaměstnanost a deflace, a připravit se, že jich bude stále více
6) Stále se vzdělávat o budoucnosti, i když je nejistá, odhlédnout občas od tradičních politických témat a dívat se tam, jak ostatní nehledí
7) Vysvětlit lidem, v čem rizika spočívají a jejich aktuálnost a podpořit organizace, které tak budou činit
8) Přidat péči o rizika AI na důstojné místo v programu Pirátů, přijmout toto téma za důležité (kdo nechápe jeho důležitost, ten nechápe ta rizika)
9) Podpořit vznik skupiny složené z politiků, futurologů, AI inženýrů atd, jež bude dlouhodobě problémy zkoumat. Nestačí věnovat se jim jen tak mimochodem nebo pouze z jednoho úhlu pohledu.
Zájemcům o toto téma doporučuji knihu Superinteligence od Nicka Bostroma, kde jsou rizika AI pěkně vysvětlená.