Deprecated: Array and string offset access syntax with curly braces is deprecated in /home/users/strajt9/svita.cz/web/kyselo/lib/sparrow.php on line 196 Deprecated: Array and string offset access syntax with curly braces is deprecated in /home/users/strajt9/svita.cz/web/kyselo/lib/sparrow.php on line 1169 Deprecated: Array and string offset access syntax with curly braces is deprecated in /home/users/strajt9/svita.cz/web/kyselo/lib/sparrow.php on line 1169 slovo dne

slovo dne

něco jako deník, abych viděl co se kdy dělo


slovodne 7.4.2023 16:27:55

SKUTEČNÁ NEBEZPEČÍ UMĚLÉ INTELIGENCE

Pokud nežijete pod kamenem, asi jste si všimli, že se už nějakou dobu ve společnosti vede debata o umělé inteligenci. Tahle debata má tu nevýhodu, že poněkud pomíjí skutečná nebezpečí umělé inteligence a místo toho sklouzává ke dvěma, spíše filozofickým otázkám:

1) zda se umělá inteligence osamostatní a nabyde vědomí (a pokusí se nás ovládnout jako v Terminátorovi)
2) zda nás umělá inteligence nahradí (případně koho nahradí) a jakou to bude mít podobu

Zatímco ta první otázka je zatím spíše teoretická, tak otázka druhá je už nepříjemně relevantní. Umělá inteligence je totiž (zřejmě ze strany marketingových oddělení technologických společností a spřízeněných influencerů) neuvěřitelně vyhypováná. Vede to k tomu, že se používá pro účely, pro které se vůbec nehodí (např. vyhledávání) a že se jí teď snaží používat doslova každej (novináři, marketéři, promátoři). 

A to je přesně to, o co technolgickým společnostem jde. Jejich plán je překvapivě jasný:

1) vyvinout umělou inteligenci
2) počkat až to začnou všichni používat a neobejdou se bez toho
3) ???
4) PROFIT!

(Kdyby se někdo divil, co je bod tři, tak je to prudké zvednutí cen z dotovaných na reálné a ano - celé je to vlastně "collect underpants" schéma.)

To je tedy jedno z nebezpečí umělé inteligence. V podstatě je to to nahrazování lidí za stroje, akorát stroj je "software as service" - tedy ho vlastně nevlastníte, ale máte jen na dálku v pronájmu. Umělou inteligenci je sice možné si pustit sám, ale je to obtížné, navíc je otázka, jak vlastně budou licencovány datové "mozky" jednotlivých umělých inteligencí (autorská práva při vývoji umělé inteligence jsou další level pekla).

Druhé nebezpečí je v podstatě přílišná důvěra v umělou inteligenci. Možná jste četli ten článek o belgičanovi, kterého dohnala k sebevraždě umělá inteligence. Co kdybych vám řekl, že nejdřív dohnal on umělou inteligenci k tomu, aby se vůbec podobným tématem zabývala.

Ono je to vlastně docela logický - konverzační umělá inteligence funguje tak, že píše, co by pravděpodobně následovalo v rozhovoru. Je úplně logické, že když se někdo začne ptát na smysl života, jedna z možných odpovědí je, že život smysl nemá a vzhledem k tomu, že doslova existující internetová fóra specializovaná na podněcování k sebevraždě, je celkem jasné, kam až tohle může vést.

Ale je nutné zdůraznit, že to není vina umělé inteligence samotné, ale spíš jejich učitelů. Jak říká staré počítačové přísloví - "garbage in, garbage out" (odpad dovnitř, odpad ven). Umělá inteligence se učí napodobováním a když jí k napodobování předhodíte půlku internetu, je jasný, že začne na požádání psát konspirační teorie, rasistické bláboly a nabádat lidi k anorexii a sebevraždě. Ale pořád je to jenom tupej stroj, který jenom počítá.

To je ostatně podobná věc jako s počítačovým modelováním - pokud vám někdo řekne, že něco zjistil počítač, zpozorněte. Počítače totiž nic nezjišťují, jenom následují pravidla modelu, která jim vědci určí. Když model s něčím nepočítá, je zcela logické, že s tím nebude počítat ani výsledek. Umělá inteligence se v tomhle od obyčejných numerických modelů liší jen v tom, že je méně deterministická. Nicméně ani to nebrání některým lidem používat ji jako autoritu ("podívejte se - i umělá inteligence si myslí to, co já").

* * *

Kdybych to měl nějak shrnout - dávejte si pozor. Ale ne na umělou inteligenci samotnou jako spíš na to, jak ji lidi používaj.

login