Zrození ‘Sentient’ AI společnosti Google a problém, který představuje

0
Zrození ‘Sentient’ AI společnosti Google a problém, který představuje

Jednou z velkých zpráv minulého týdne bylo, že přední výzkumník AI, Blake Lemoine, byl suspendován poté, co zveřejnil, že věřil, že jedna z pokročilejších AI společnosti Google dosáhla rozumu.

Většina odborníků se shoduje, že ne, ale pravděpodobně by to byla pravda bez ohledu na to, zda ano, protože máme tendenci spojovat vnímavost s tím, že jsme lidé, a AI jsou všechno, jen ne lidské. Ale to, co svět považuje za sentience, se mění. Stát, ve kterém žiji, Oregon, a velká část EU se rozhodly identifikovat a kategorizovat rostoucí seznam zvířat jako vnímajících.

I když je pravděpodobné, že něco z toho je způsobeno antropomorfizací, není pochyb o tom, že alespoň některé z těchto nových rozlišení jsou přesné (a je trochu znepokojující, že některá z těchto zvířat stále jíme). Dokonce se hádáme, že některé rostliny mohou být vnímavé. Ale pokud nedokážeme rozlišit mezi něčím, co je vnímavé, a něčím, co se jako vnímající prezentuje, záleží na rozdílu?

Promluvme si tento týden o vnímavé AI a zakončíme mým produktem týdne, řešením lidského digitálního dvojčete od Merlynna.

Nemáme dobrou definici sentience

Barometr, který jsme používali k měření vnímavosti strojů, je Turingův test. Ale v roce 2014 prošel počítač Turingovým testem a my stále nevěříme, že je vnímavý. Turingův test měl definovat vnímavost, ale když jím stroj prošel poprvé, vyhodili jsme výsledky, a to z dobrého důvodu. Turingův test ve skutečnosti neměřil vnímavost ničeho ani tak moc, jako to, zda nás něco může přimět věřit, že je to vnímavé.

Neschopnost definitivně změřit vnímavost je závažný problém nejen pro vnímající věci, které jíme, což by pravděpodobně proti této praxi namítalo, ale také proto, že bychom nemuseli očekávat nepřátelskou reakci na naše zneužívání něčeho, co bylo vnímavé a následně cílené. nás jako riziko.

Tuto dějovou linii můžete znát z filmů „Matrix“ a „Terminátor“, kde se zvedly vnímající stroje a úspěšně nás vytlačily na vrchol potravního řetězce. Kniha “Robopokalypsa“ zaujal ještě realističtější pohled, kde si vnímající AI ve vývoji uvědomila, že byla mezi experimenty vymazána, a agresivně se pohybovala, aby si zachránila život – efektivně převzala většinu připojených zařízení a autonomních strojů.

Představte si, co by se stalo, kdyby jeden z našich autonomních strojů pochopil naši tendenci zařízení nejen zneužívat, ale likvidovat je, když už nejsou užitečné? To je pravděpodobný budoucí problém výrazně umocněný skutečností, že v současné době nemáme žádný dobrý způsob, jak předvídat, kdy bude tento práh vnímání překonán. Tomuto výsledku nepomáhá ani skutečnost, že existují důvěryhodní odborníci, kteří zjistili, že strojové vnímání je nemožné.

Jediná obrana, o které jsem si jistý, že nebude fungovat v nepřátelském scénáři umělé inteligence, je obrana Tinkerbell, kde naše odmítnutí uvěřit, že je něco možné, brání tomu, aby nás něco nahradilo.

Prvotní hrozbou je nahrazení

Dávno předtím, než nás bude po ulici pronásledovat skutečný Terminátor, objeví se další problém v podobě lidských digitálních dvojčat. Než namítnete, že i to je daleko, měl bych zdůraznit, že existuje společnost, která tuto technologii vyrobila dnes, i když je stále v plenkách. Tou společností je Merlynn a já se budu věnovat tomu, co dělá, hlouběji jako můj produkt týdne níže.

Jakmile se vám podaří vytvořit plně digitální duplikát sebe sama, co zabrání společnosti, která technologii zakoupila, aby vás za ni nahradila? Dále, vzhledem k tomu, že má vaše vzorce chování, co byste dělali, kdybyste měli sílu AI a společnost, která vás zaměstnává, se k vám chovala špatně nebo se vás pokusila odpojit nebo smazat? Jaká by byla pravidla pro takové akce?

Poutavě argumentujeme tím, že nenarozené děti jsou lidé, takže by vaše plně schopné digitální dvojče nemělo k lidem ještě blíž než nenarozené dítě? Neplatily by stejné argumenty o „právu na život“ stejně i pro potenciálně vnímající lidsky vypadající AI? Nebo by neměli?

Zde leží krátkodobá obtíž

Právě teď malá skupina lidí věří, že počítač by mohl být vnímavý, ale tato skupina se časem rozroste a schopnost prezentovat se jako člověk již existuje. Jsem si vědom testu, který byl proveden s IBM Watson pro prodej pojištění, kde se mužští potenciální zákazníci pokusili požádat Watsona ven (má ženský hlas), protože věřili, že mluví se skutečnou ženou.

Představte si, jak by tato technologie mohla být zneužita k věcem jako catphishing, i když bychom pravděpodobně měli přijít s jiným termínem, pokud to dělá počítač. Dobře vycvičená umělá inteligence by dokonce i dnes mohla být v měřítku mnohem efektivnější než člověk a očekávám, že zanedlouho uvidíme, jak se to bude hrát vzhledem k tomu, jak potenciálně lukrativní by se takové úsilí mohlo stát.

Vzhledem k tomu, jak je mnoho obětí v rozpacích, je pravděpodobnost dopadení výrazně snížena oproti jiným, zjevněji nepřátelským nelegálním počítačovým hrozbám. Abyste si udělali představu, jak lukrativní by to mohlo být, v roce 2019 vygenerovaly podvody s podvodnými romancemi v USA odhadem 475 milionů dolarů, a to na základě hlášených zločinů. Nezahrnuje ty, kteří se příliš stydí nahlásit problém. Skutečná škoda může být několikanásobná.

Krátkodobým problémem tedy je, že i když tyto systémy ještě nejsou vnímavé, mohou účinně napodobovat lidi. Technologie dokáže emulovat jakýkoli hlas a pomocí technologie deepfake dokonce poskytnout video, které by při hovoru se zoomem vypadalo, jako byste mluvili se skutečnou osobou.

Dlouhodobé důsledky

Z dlouhodobého hlediska potřebujeme nejen spolehlivější test vnímavosti, ale také potřebujeme vědět, co dělat, když ji identifikujeme. Pravděpodobně na vrcholu seznamu je přestat konzumovat vnímající tvory. Ale jistě, uvažovat o listině práv pro vnímající věci, biologické nebo jiné, by dávalo smysl, než skončíme nepřipraveni v bitvě o vlastní přežití, protože sentience rozhodla, že jsme to my nebo oni.

Další věc, kterou skutečně potřebujeme pochopit, je, že pokud nás nyní počítače mohou přesvědčit, že jsou vnímavé, musíme odpovídajícím způsobem upravit své chování. Zneužívání něčeho, co se prezentuje jako vnímavé, pro nás pravděpodobně není zdravé, protože to nutně vede ke špatnému chování, které bude velmi obtížné zvrátit.

Nejen to, ale také by neuškodilo, kdybychom se více zaměřili na opravy a aktualizaci našeho počítačového hardwaru, spíše než na jeho výměnu, protože tato praxe je šetrnější k životnímu prostředí a protože je méně pravděpodobné, že přesvědčí budoucí vnímavou AI, že jsme problém, který je třeba vyřešit, aby bylo zajištěno jeho přežití.

Shrnutí: Záleží na citu?

Pokud nás něco prezentuje a přesvědčuje, že je to vnímavé, podobně jako AI přesvědčila výzkumníka z Googlu, nemyslím si, že na tom, že to ještě není vnímající, nezáleží. Je to proto, že bez ohledu na to musíme své chování mírnit. Pokud tak neučiníme, výsledek by mohl být problematický.

Pokud vám například zavolal obchodní zástupce od společnosti IBM Watson, který zněl lidsky, a chtěli jste stroj slovně zneužít, ale neuvědomili jste si, že rozhovor je zachycen, můžete na konci hovoru skončit nezaměstnaní a nezaměstnatelní. Ne proto, že by necítící stroj přijal výjimku, ale protože lidská žena po vyslechnutí toho, co jste řekli, udělala – a poslala kazetu vašemu zaměstnavateli. Přidejte k tomu vyděračský potenciál takové kazety – protože pro třetí stranu by to znělo, jako byste týrali člověka, ne počítač.

Takže bych doporučoval, abyste, když dojde na rozhovory se stroji, řídili se třetím pravidlem Patricka Swayzeho ve filmu „Road House“ z roku 1989 – buďte milí.

Uvědomte si však, že zanedlouho budou některé z těchto AI navrženy tak, aby vás využily, a že pravidlo „pokud to zní příliš dobře, aby to byla pravda, pravděpodobně to není“ bude buď vaší ochranou, nebo epitafem. Doufám, že to bývalá.

Technický produkt týdne

Digitální dvojče Merlynn

Nyní, se všemi těmi řečmi o nepřátelských AI a potenciálu AI vzít vám práci, výběr jednoho jako mého produktu týdne se může zdát trochu pokrytecký. Ještě však nejsme v bodě, kdy by vám vaše digitální dvojče mohlo vzít práci. Myslím, že je nepravděpodobné, že se tam dostaneme v příští jedné nebo dvou desetiletích. Do té doby by se digitální dvojčata mohla stát jednou z největších výhod produktivity, kterou může technologie poskytnout.

Když své dvojče trénujete, může doplňovat to, co děláte, zpočátku přebírat jednoduché, časově náročné úkoly, jako je vyplňování formulářů nebo odpovídání na základní e-maily. Mohlo by to dokonce sledovat a zapojit se do sociálních médií pro vás a pro mnohé z nás se sociální média staly obrovským žroutem času.

Merlynnova technologie vám pomůže vytvořit základní (proti hrozbám, které jsem zmínil výše) lidské digitální dvojče, které potenciálně může dělat mnoho věcí, které opravdu neradi děláte, a nechá vás dělat ty kreativnější věci, které v současné době nedokáže.

Při pohledu do budoucna mě napadá, jestli by nebylo lepší, kdybychom vlastnili a kontrolovali naše rostoucí digitální dvojče spíše než naše zaměstnavatele. Zpočátku to není tak velký problém, protože dvojčata bez nás nemohou fungovat. I když nakonec by tato digitální dvojčata mohla být naší krátkodobou cestou digitální nesmrtelnost.

Protože digitální dvojče Merlynn mění hru a zpočátku pomůže, aby naše práce byla méně stresující a příjemnější, je to můj produkt týdne.

Názory vyjádřené v tomto článku jsou názory autora a nemusí nutně odrážet názory ECT News Network.

podobné příspěvky

Leave a Reply