top of page
E BARDHË SHIRIT.png

NUK KA INTELIGJENCË ARTIFICIALE “AI”.

  • Writer: Agjencia Telegrafike Vox
    Agjencia Telegrafike Vox
  • Apr 20, 2023
  • 17 min read

Nga: Jaron Lanier. {Le të shqyrtojmë skenarin apokaliptik në të cilin AI e largon shoqërinë tonë nga binarët. Një mënyrë që kjo mund të ndodhë është përmes deepfakes. Supozoni se një person i keq, ndoshta duke punuar në një qeveri kundërshtare në baza lufte, vendos të ngjallë panik masiv duke na dërguar të gjithëve video bindëse të të dashurit tanë duke u torturuar ose rrëmbyer nga shtëpitë tona. (Të dhënat e nevojshme për të krijuar video të tilla, në shumë raste, janë të lehta për t'u marrë përmes mediave sociale ose kanaleve të tjera.) Do të pasonte kaos, edhe nëse shpejt do të bëhej e qartë se videot ishin falsifikuar. Si mund ta parandalojmë një skenar të tillë? Përgjigja është e qartë: informacioni dixhital duhet të ketë kontekst. Çdo koleksion i bitave ka nevojë për një histori. Kur humbet kontekstin, humbet kontrollin.} Si një shkencëtar kompjuteri, nuk më pëlqen termi IA (AI- në anglisht). Në fakt, mendoj se është term mashtrues—ndoshta edhe pak i rrezikshëm. Të gjithë tashmë e përdorin termin dhe mund të duket pak vonë gjatë ditës për të debatuar për të. Por ne jemi në fillimin e një epoke të re teknologjike - dhe mënyra më e lehtë për të keqmenaxhuar një teknologji është ta keqkuptosh atë. Termi “inteligjencë artificiale” ka një histori të gjatë - ai u krijua në vitet '50, në ditët e para të kompjuterëve. Kohët e fundit, shkencëtarët kompjuterikë janë rritur në filma si "The Terminator" dhe “The Matrix”, dhe me personazhe si Commander Data, nga Star Trek: The Next Generation. Këta gurë provash kulturore janë bërë një mitologji pothuajse fetare në kulturën e teknologjisë. Është e natyrshme që shkencëtarët kompjuterikë dëshirojnë të krijojnë AI dhe të realizojnë një ëndërr të kahershme. Megjithatë, ajo që bie në sy është se shumë nga njerëzit që po ndjekin ëndrrën e AI shqetësohen gjithashtu se kjo mund të nënkuptojë fundin e botës për njerëzimin. Është thënë gjerësisht, madje edhe nga shkencëtarët në qendër të përpjekjeve të sotme, se ajo që po bëjnë studiuesit e AI mund të rezultojë në asgjësimin e specieve tona, ose të paktën në dëm të madh për njerëzimin, dhe së shpejti. Në një sondazh të fundit, gjysma e shkencëtarëve të AI ranë dakord se kishte të paktën dhjetë për qind mundësi që raca njerëzore të shkatërrohej nga AI. Edhe kolegu dhe miku im Sam Altman, i cili drejton OpenAI, ka bërë komente të ngjashme. Hyni në çdo kafene të Silicon Valley dhe mund të dëgjoni të njëjtin debat të shpaloset: një person thotë se kodi i ri është thjesht kod dhe se njerëzit janë përgjegjës, por një tjetër argumenton se kushdo me këtë mendim thjesht nuk e kupton se sa i thellë është teknologjia e re. Argumentet nuk janë plotësisht racionale: kur u kërkoj miqve të mi shkencëtarë më të frikshëm të shpjegojnë se si mund të ndodhë një apokalips i AI, ata shpesh kapin paralizën që kapërcen dikë që përpiqet të konceptojë pafundësinë. Ata thonë gjëra të tilla si "Përshpejtimi i përparimit do të kalojë pranë nesh dhe ne nuk do të jemi në gjendje të kuptojmë se çfarë po ndodh". Unë nuk jam dakord me këtë mënyrë të të folurit. Shumë nga miqtë dhe kolegët e mi janë thellësisht të impresionuar nga përvojat e tyre me modelet më të fundit të mëdha, si GPT-4, dhe praktikisht po mbajnë vigjilje për të pritur shfaqjen e një inteligjence më të thellë. Qëndrimi im nuk është se ata e kanë gabim, por nuk mund të jemi të sigurt; ne ruajmë mundësinë e klasifikimit të softuerit në mënyra të ndryshme. Pozicioni më pragmatik është të mendosh për AI si një mjet, jo një krijesë. Qëndrimi im nuk e eliminon mundësinë e rrezikut: sido që të mendojmë për këtë, ne ende mund ta dizajnojmë dhe ta operojmë keq teknologjinë tonë të re, në mënyra që mund të na dëmtojnë ose madje të çojnë në zhdukjen tonë. Mitologjizimi i teknologjisë vetëm sa i bën më shumë gjasa që ne të dështojmë ta përdorim atë mirë—dhe ky lloj të menduari kufizon imagjinatën tonë, duke i lidhur ato me ëndrrat e së djeshmes. Ne mund të punojmë më mirë me supozimin se nuk ekziston diçka e tillë si AI. Sa më shpejt ta kuptojmë këtë, aq më shpejt do të fillojmë të menaxhojmë teknologjinë tonë të re në mënyrë inteligjente. Nëse teknologjia e re nuk është inteligjencë e vërtetë artificiale, atëherë çfarë është ajo? Sipas mendimit tim, mënyra më e saktë për të kuptuar atë që po ndërtojmë sot është si një formë inovative e bashkëpunimit social.
Një program si GPT-4 i OpenAI, i cili mund të shkruajë fjali sipas porosisë, është diçka si një version i Wikipedia-s që përfshin shumë më tepër të dhëna, të grumbulluara së bashku duke përdorur statistika. Programet që krijojnë imazhe me porosi janë diçka si një version i kërkimit të imazheve në internet, por me një sistem për kombinimin e fotografive. Në të dyja rastet, janë njerëzit që kanë shkruar tekstin dhe kanë mobiluar imazhet. Programet e reja grumbullojnë punën e bërë nga mendjet njerëzore. Ajo që është inovative është se procesi i përzierjes është bërë i udhëhequr dhe i kufizuar, në mënyrë që rezultatet të jenë të përdorshme dhe shpesh të habitshme. Kjo është një arritje e rëndësishme dhe ia vlen të festohet - por mund të mendohet si ndriçim i harmonive të fshehura më parë midis krijimeve njerëzore, sesa si shpikje e një mendjeje të re. Me sa mund të them, pikëpamja ime kënaq teknologjinë. Në fund të fundit, çfarë është qytetërimi përveç bashkëpunimit shoqëror? Duke e parë AI si një mënyrë për të punuar së bashku, dhe jo si një teknologji për krijimin e qenieve të pavarura, inteligjente, mund ta bëjë atë më pak misterioz – më pak si hal 9000 ose Commander Data. Por kjo është mirë, sepse misteri vetëm e bën keqmenaxhimin më të mundshëm. Është e lehtë t'i atribuohet inteligjencë sistemeve të reja; ato kanë një fleksibilitet dhe paparashikueshmëri që ne zakonisht nuk e lidhim me teknologjinë kompjuterike. Por ky fleksibilitet lind nga matematika e thjeshtë. Një model i madh gjuhësor si GPT-4 përmban një rekord grumbullues (kumulativ) se si fjalë të veçanta përkojnë në sasinë e madhe të tekstit që programi ka përpunuar. Ky tabelim gjigant bën që sistemi të përafrojë në thelb shumë modele gramatikore, së bashku me aspekte të asaj që mund të quhet stil autorial. Kur futni një pyetje të përbërë nga fjalë të caktuara në një rend të caktuar, hyrja juaj lidhet me atë që është në model; rezultatet mund të dalin pak më ndryshe çdo herë, për shkak të kompleksitetit të korrelacionit të miliarda hyrjeve. Natyra jo e përsëritur e këtij procesi mund ta bëjë atë të ndihet i gjallë. Dhe ka një kuptim në të cilin mund t'i bëjë sistemet e reja më të përqendruara te njeriu. Kur sintetizoni një imazh të ri me një mjet AI, mund të merrni një mori opsionesh të ngjashme dhe më pas duhet të zgjidhni prej tyre; nëse jeni student që përdor një LLM për të mashtruar në një detyrë eseje, mund të lexoni opsionet e krijuara nga modeli dhe të zgjidhni një. Pak zgjedhje njerëzore kërkohet nga një teknologji që nuk përsëritet. Shumë nga përdorimet e AI që më pëlqejnë mbështeten në avantazhet që fitojmë kur kompjuterët bëhen më pak të ngurtë. Gjërat dixhitale siç e kemi njohur kanë një cilësi të brishtë që i detyron njerëzit të përshtaten me të, në vend që ta vlerësojnë atë. Ne të gjithë kemi duruar agoninë e shikimit të një shpirti të varfër në zyrën e një mjeku që lufton për të bërë atë që pritet në një ekran të tavolinës së përparme. Shtrëngohet fytyra; njerëzimi është minuar. Nevoja për t'iu përshtatur modeleve dixhitale ka krijuar një pritshmëri mjedisore të nënshtrimit njerëzor. Një ndryshim pozitiv në AI është se mund të shënojë fundin e kësaj torture, nëse e përdorim mirë. Tani mund të imagjinojmë një faqe interneti që riformulon veten në fluturim për dikë që është i verbër, të themi, ose një sajt që përshtatet me aftësitë dhe stilet e veçanta njohëse të dikujt. Një humanist si unë dëshiron që njerëzit të kenë më shumë kontroll, në vend që të ndikohen ose udhëhiqeni tepër nga teknologjia. Fleksibiliteti mund të na kthejë disa agjenci. Megjithatë, pavarësisht këtyre avantazheve të mundshme, është më se e arsyeshme të shqetësohemi se teknologjia e re do të na shtyjë në mënyra që nuk na pëlqejnë apo kuptojmë. Kohët e fundit, disa miq të mi qarkulluan një peticion duke kërkuar një pauzë në zhvillimin më ambicioz të AI. Ideja ishte që ne do të punonim për politikën gjatë pauzës. Peticioni u nënshkrua nga disa në komunitetin tonë, por jo nga të tjerë. Më dukej shumë i turbullt nocioni - çfarë niveli përparimi do të thoshte që pauza mund të përfundonte? Çdo javë, marr deklarata të reja, por gjithmonë të paqarta misioni nga organizata që kërkojnë të iniciojnë procese për të vendosur politikën e AI. Këto përpjekje janë me qëllime të mira, por më duken të pashpresa. Për vite, kam punuar në politikat e privatësisë së BE-së dhe kuptova se nuk e dimë se çfarë është privatësia. Është një term që e përdorim çdo ditë dhe mund të ketë kuptim në kontekst, por nuk mund ta kuptojmë aq mirë sa për ta përgjithësuar. Përkufizimi më i afërt për privatësinë është ndoshta "e drejta për të mbetur vetëm", ​​por kjo duket e çuditshme në një epokë kur jemi vazhdimisht të varur nga shërbimet dixhitale. Në kontekstin e AI, "e drejta për të mos u manipuluar me llogaritje" duket pothuajse e saktë, por nuk thotë plotësisht gjithçka që do të donim. Bisedat mbi politikën e AI dominohen nga terma si "përafrimi" (a është ajo që "dëshiron" një AI në përputhje me atë që duan njerëzit?), "siguria" (a mund të parashikojmë parmakë që do të prishin një AI të keqe?) dhe "drejtësi" ( a mund të parandalojmë të gjitha mënyrat se si një program mund të trajtojë disa njerëz me disfavor?). Komuniteti ka arritur sigurisht shumë të mira duke ndjekur këto ide, por kjo nuk e ka shuar frikën tonë. Ne përfundojmë duke motivuar njerëzit që të përpiqen të anashkalojnë mbrojtjen e paqartë që kemi vendosur. Edhe pse mbrojtjet ndihmojnë, e gjithë kjo bëhet një lojë - si përpjekja për të mposhtur një xhind të poshtër. Rezultati është se komuniteti i kërkimit të AI komunikon paralajmërimin se krijimet e tyre ende mund të vrasin të gjithë njerëzimin së shpejti, ndërsa propozojnë procese gjithnjë e më urgjente, por të turbullta, diskutuese. Kohët e fundit, provova një eksperiment jozyrtar, duke thirrur kolegët dhe duke i pyetur nëse ka ndonjë gjë specifike për të cilën të gjithë mund të biem dakord. Kam zbuluar se ka një bazë marrëveshjeje. Duket se të gjithë jemi dakord që falsifikimet e rreme – imazhe, video të rreme, por që duken reale, e kështu me radhë – duhet të etiketohen si të tilla nga programet që i krijojnë ato. Komunikimet që vijnë nga njerëz artificialë dhe ndërveprimet e automatizuara që janë krijuar për të manipuluar të menduarit ose veprimet e një qenieje njerëzore, gjithashtu duhet të etiketohen. Ne gjithashtu pajtohemi që këto etiketa duhet të vijnë me veprime që mund të ndërmerren. Njerëzit duhet të jenë në gjendje të kuptojnë atë që po shohin dhe duhet të kenë zgjedhje të arsyeshme në këmbim. Si mund të bëhet e gjithë kjo? Ekziston gjithashtu pothuajse unanimiteti, mendoj se natyra e kutisë së zezë të mjeteve tona aktuale të AI duhet të marrë fund. Sistemet duhet të bëhen më transparente. Ne duhet të bëhemi më të mirë për të thënë se çfarë po ndodh brenda tyre dhe pse. Kjo nuk do të jetë e lehtë. Problemi është se sistemet e modelit të madh të inteligjencës artificiale për të cilat po flasim nuk përbëhen nga ide të qarta. Nuk ka një përfaqësim të caktuar të asaj që sistemi "dëshiron", nuk ka asnjë etiketë kur ai është duke bërë një gjë të veçantë, si manipulimi i një personi. Ekziston vetëm një oqean gjigant xhelo-një përzierje e madhe matematikore. Një grup për të drejtat e shkrimtarëve ka propozuar që autorët e vërtetë njerëzorë të paguhen plotësisht kur mjete si GPT përdoren në procesin e shkrimit të skenarit; në fund të fundit, sistemi po mbështetet në skriptet që kanë bërë njerëzit e vërtetë. Por kur përdorim inteligjencën artificiale për të prodhuar klipe filmash dhe potencialisht filma të tërë, nuk do të ketë domosdoshmërisht një fazë skenari. Mund të prodhohet një film që duket se ka një skenar, kolonë zanore e kështu me radhë, por do të jetë llogaritur në ekzistencë si një e tërë. Në mënyrë të ngjashme, asnjë skicë nuk i paraprin gjenerimit të një pikture nga një ilustrim AI Përpjekja për të hapur kutinë e zezë duke bërë që një sistem të pështyjë, përndryshe sende të panevojshme si skriptet, skicat ose qëllimet do të përfshijnë ndërtimin e një kutie tjetër të zezë për të interpretuar të parën - një regres i pafund. Në të njëjtën kohë, nuk është e vërtetë që brendësia e një modeli të madh duhet të jetë një shkretëtirë pa gjurmë. Ne mund të mos e dimë se çfarë është një "ide" nga një këndvështrim formal, llogaritës, por mund të ketë gjurmë të bëra jo nga idetë, por nga njerëzit. Në një moment në të kaluarën, një person real krijoi një ilustrim që u fut si të dhëna në model dhe, në kombinim me kontributet e njerëzve të tjerë, u shndërrua në një imazh të ri. Inteligjenca artificiale e modelit të madh përbëhet nga njerëz dhe mënyra për të hapur kutinë e zezë është zbulimi i tyre. Ky koncept, për të cilin unë kam kontribuar të zhvillohet, zakonisht quhet "dinjiteti i të dhënave". Ai u shfaq, shumë kohë përpara ngritjes së modelit të madh "AI", si një alternativë ndaj marrëveshjes së njohur në të cilën njerëzit japin të dhënat e tyre falas në këmbim të shërbimeve falas, të tilla si kërkimet në internet ose rrjetet sociale. Dinjiteti i të dhënave nganjëherë njihet si "të dhënat si punë" ose "kërkim i shumësisë". Marrëveshja e njohur ka rezultuar të ketë një anë të errët: për shkak të "efekteve të rrjetit", disa platforma marrin përsipër, duke eliminuar lojtarët më të vegjël, si gazetat lokale. Më keq, meqenëse përvoja e menjëhershme në internet supozohet të jetë falas, i vetmi biznes i mbetur është shpërndarja e ndikimit. Përdoruesit përjetojnë atë që duket të jetë një parajsë komunitare, por ata janë në shënjestër të algoritmeve të fshehta dhe të varura që i bëjnë njerëzit të kotë, nervozë dhe paranojakë. Në një botë me dinjitet të dhënash, gjërat dixhitale zakonisht do të lidhen me njerëzit që duan të njihen për arritjen e tyre. Në disa versione të idesë, njerëzit mund të paguhen për atë që krijojnë, edhe kur ajo filtrohet dhe rikombinohet përmes modeleve të mëdha, dhe qendrat e teknologjisë do të fitonin tarifa për lehtësimin e gjërave që njerëzit duan të bëjnë. Disa njerëz janë të tmerruar nga ideja e kapitalizmit në internet, por ky do të ishte një kapitalizëm më i ndershëm. Marrëveshja e njohur "falas" ka qenë një fatkeqësi. Një nga arsyet pse komuniteti i teknologjisë shqetësohet se AI mund të jetë një kërcënim ekzistencial është se mund të përdoret për të luajtur me njerëzit, ashtu siç ka qenë vala e mëparshme e teknologjive dixhitale. Duke pasur parasysh fuqinë dhe shtrirjen e mundshme të këtyre sistemeve të reja, nuk është e paarsyeshme të kesh frikë nga zhdukja si rezultat i mundshëm. Meqenëse ky rrezik njihet gjerësisht, ardhja e AI-së së modelit të madh mund të jetë një rast për të riformatuar industrinë e teknologjisë për mirë. Zbatimi i dinjitetit të të dhënave do të kërkojë kërkime teknike dhe risi në politika. Në këtë kuptim, tema më emocionon mua si shkencëtar. Hapja e kutisë së zezë vetëm sa do t'i bëjë modelet më interesante. Dhe mund të na ndihmojë të kuptojmë më shumë rreth gjuhës, e cila është shpikja njerëzore që bën vërtet përshtypje dhe ajo që ne jemi ende duke e eksploruar pas gjithë këtyre qindra mijëra viteve. A mund të trajtojë dinjiteti i të dhënave shqetësimet ekonomike që shprehen shpesh për AI? Shqetësimi kryesor është se punëtorët do të zhvlerësohen ose zhvendosen. Publikisht, teknikët ndonjëherë do të thonë se, në vitet e ardhshme, njerëzit që punojnë me AI do të jenë më produktivë dhe do të gjejnë lloje të reja pune në një ekonomi më produktive. (Një punëtor mund të bëhet një inxhinier i shpejtë për programet e AI, për shembull - dikush që bashkëpunon ose kontrollon një AI) e megjithatë, në mënyrë private, të njëjtët njerëz shpesh do të thonë: "Jo, AI do ta kapërcejë këtë ide të bashkëpunimit." Nuk ka më shpërblim për kontabilistët, radiologët, shoferët e kamionëve, shkrimtarët, regjisorët e filmave apo muzikantët e sotëm. Një qasje e dinjitetit të të dhënave do të gjurmonte kontribuesit më unikë dhe më me ndikim kur një model i madh ofron një rezultat të vlefshëm. Për shembull, nëse i kërkoni një modeli për "një film të animuar të fëmijëve të mi në një botë me piktura vaji të maceve që flasin në një aventurë", atëherë disa piktorë kryesorë të vajit, portretistë macesh, aktorë zëri dhe shkrimtarë - ose pasuritë e tyre - mund të llogaritet se ka qenë unike thelbësore për krijimin e kryeveprës së re. Ata do të njiheshin dhe do të motivoheshin. Ata madje mund të paguhen. Ekziston një komunitet i ri i kërkimit mbi dinjitetin e të dhënave, dhe këtu është një shembull i një debati brenda tij: Sa i detajuar duhet të përpiqet një kontabilitet për dinjitetin e të dhënave? Jo të gjithë janë dakord. Sistemi nuk do të llogaritet domosdoshmërisht për miliarda njerëz që kanë dhënë kontribute mjedisore në modele të mëdha - ata që kanë shtuar kompetencën e simuluar të një modeli me gramatikën, për shembull. Në fillim, dinjiteti i të dhënave mund t'i kushtohet vëmendje vetëm numrit të vogël të kontribuesve të veçantë që dalin në një situatë të caktuar. Megjithatë, me kalimin e kohës, mund të përfshihen më shumë njerëz, pasi organizatat e ndërmjetme të të drejtave - sindikatat, repartet, grupet profesionale etj. - fillojnë të luajnë një rol. Njerëzit në komunitetin e dinjitetit të të dhënave ndonjëherë i quajnë këto grupe të parashikuara ndërmjetësues të të dhënave individuale ( mid) ose trustet e të dhënave. Njerëzit kanë nevojë për fuqinë e negociatave kolektive për të pasur vlerë në një botë në internet - veçanërisht kur ata mund të humbasin në një model gjigant të AI. Dhe kur njerëzit ndajnë përgjegjësinë në një grup, ata vetë-policiojnë, duke reduktuar nevojën ose tundimin që qeveritë dhe kompanitë të censurojnë ose kontrollojnë nga lart. Njohja e thelbit njerëzor të modeleve të mëdha mund të çojë në një lulëzim të institucioneve të reja pozitive sociale. Dinjiteti i të dhënave nuk është vetëm për rolet me jakë të bardhë. Konsideroni se çfarë mund të ndodhë nëse futen robotë për prerjen e pemëve të drejtuara nga AI. Prerëset e pemëve njerëzore mund ta gjejnë veten të zhvlerësuar apo edhe të papunë. Por robotët përfundimisht mund të lejojnë një lloj të ri të artit indirekt të peizazhit. Disa ish-punëtorë, ose të tjerë, mund të krijojnë qasje shpikëse - të themi, topiar holografik që duket ndryshe nga këndvështrime të ndryshme - që gjejnë rrugën e tyre në modelet e prerjes së pemëve. Me dinjitet të dhënash, modelet mund të krijojnë burime të reja të ardhurash, të shpërndara përmes organizatave kolektive. Prerja e pemëve do të bëhej më shumëfunksionale dhe interesante me kalimin e kohës; do të kishte një komunitet të motivuar për të mbetur i vlefshëm. Çdo prezantim i ri i suksesshëm i një AI ose aplikacioni robotik mund të përfshijë inaugurimin e një lloji të ri të punës krijuese.
Shumë njerëz në Silicon Valley i shohin të ardhurat bazë universal si një zgjidhje për problemet e mundshme ekonomike të krijuara nga AI, por UBI do të thotë t'i vërë të gjithë në para për të ruajtur idenë e inteligjencës artificiale të kutisë së zezë.

Kjo është një ide e frikshme, mendoj, pjesërisht sepse aktorët e këqij do të duan të kapin qendrat e pushtetit në një sistem universal të mirëqenies, si në çdo eksperiment komunist.

Unë dyshoj se dinjiteti i të dhënave mund të rritet ndonjëherë aq sa për të mbështetur të gjithë shoqërinë, por dyshoj se ndonjë parim social ose ekonomik do të jetë ndonjëherë i plotë. Kurdoherë që është e mundur, qëllimi duhet të jetë të paktën krijimi i një klase të re krijuese në vend të një klase të re të varur.

Ekzistojnë gjithashtu arsye jo altruiste që kompanitë e AI të përqafojnë dinjitetin e të dhënave. Modelet janë po aq të mira sa inputet e tyre. Është vetëm përmes një sistemi si dinjiteti i të dhënave që ne mund t'i zgjerojmë modelet në kufij të rinj.

Tani për tani, është shumë më e lehtë të bësh një LLM për të shkruar një ese sesa t'i kërkosh programit të gjenerojë një botë ndërvepruese të realitetit virtual, sepse ekzistojnë shumë pak botë virtuale. Pse të mos e zgjidhni këtë problem duke u dhënë njerëzve që shtojnë më shumë botë virtuale një shans për prestigj dhe të ardhura?

A mund të ndihmojë dinjiteti i të dhënave me ndonjë nga skenarët e asgjësimit të njeriut?
Një model i madh mund të na bëjë të paaftë, ose të na ngatërrojë aq shumë sa shoqëria jonë të dalë kolektivisht nga binarët; një person i fuqishëm dhe keqdashës mund të përdorë AI për të na bërë të gjithëve një dëm të madh; dhe disa njerëz gjithashtu mendojnë se vetë modeli mund të "break jailbreak", duke marrë kontrollin e makinerive ose armëve tona dhe duke i përdorur ato kundër nesh.

Ne mund të gjejmë precedentë për disa nga këta skenarë jo vetëm në fantashkencë, por në dështime më të zakonshme të tregut dhe teknologjisë.

Një shembull është katastrofa e vitit 2019 në lidhje me avionët 737 MAX të kompanisë boing. Avionët përfshinin një veçori korrigjimi të rrugës së fluturimit që në disa raste luftonte pilotët, duke shkaktuar dy përplasje me viktima masive.

Problemi nuk ishte teknologjia në izolim, por mënyra se si ajo u integrua në ciklin e shitjeve, seancat e trajnimit, ndërfaqen e përdoruesit dhe dokumentacionin.

Pilotët mendonin se po bënin gjënë e duhur duke u përpjekur të kundërshtonin sistemin në rrethana të caktuara, por ata po bënin pikërisht gjënë e gabuar dhe nuk kishin si ta dinin. Boeing nuk arriti të komunikonte qartë se si funksiononte teknologjia dhe konfuzioni që rezultoi çoi në katastrofë.

Çdo gjë e projektuar - makina, ura, ndërtesa - mund të shkaktojë dëm për njerëzit, dhe megjithatë ne kemi ndërtuar një qytetërim mbi inxhinierinë. Është duke rritur dhe zgjeruar ndërgjegjësimin, përgjegjësinë dhe pjesëmarrjen njerëzore që ne mund ta bëjmë automatizimin të sigurt; anasjelltas, nëse i trajtojmë shpikjet tona si objekte okulte, vështirë se mund të jemi inxhinierë të mirë.

Të shohësh AI si një formë të bashkëpunimit social është më vepruese: ajo na jep akses në dhomën e motorit, e cila përbëhet nga njerëz.

Le të shqyrtojmë skenarin apokaliptik në të cilin AI e largon shoqërinë tonë nga binarët. Një mënyrë që kjo mund të ndodhë është përmes deepfakes.

Supozoni se një person i keq, ndoshta duke punuar në një qeveri kundërshtare në baza lufte, vendos të ngjallë panik masiv duke na dërguar të gjithëve video bindëse të të dashurit tanë duke u torturuar ose rrëmbyer nga shtëpitë tona. (Të dhënat e nevojshme për të krijuar video të tilla, në shumë raste, janë të lehta për t'u marrë përmes mediave sociale ose kanaleve të tjera.)

Do të pasonte kaos, edhe nëse shpejt do të bëhej e qartë se videot ishin falsifikuar. Si mund ta parandalojmë një skenar të tillë? Përgjigja është e qartë: informacioni dixhital duhet të ketë kontekst. Çdo koleksion i bitave ka nevojë për një histori. Kur humbet kontekstin, humbet kontrollin.

Pse pjesët nuk i bashkangjiten historive të origjinës së tyre?
Ka shumë arsye. Dizajni origjinal i Uebit nuk mbante gjurmët se nga vinin pjesët, me gjasë që ta bënte më të lehtë për rrjetin të rritej shpejt. (Kompjuterët dhe gjerësia e brezit ishin të dobëta në fillim.)

Pse nuk filluam të kujtonim se nga erdhën bit-et kur u bë më e realizueshme që të paktën të përafrohej prejardhja dixhitale? Gjithmonë më dukej se ne donim që Uebi të ishte më misterioz sesa duhej. Cilado qoftë arsyeja, Uebi u krijua për të kujtuar gjithçka duke harruar kontekstin e tij.

Sot, shumica e njerëzve e marrin si të mirëqenë se Ueb-i, dhe në të vërtetë Interneti mbi të cilin është ndërtuar, është, për nga natyra e tij, antikontekstual dhe pa origjinë. Ne supozojmë se dekontekstualizimi është i brendshëm i vetë idesë së një rrjeti dixhital.

Megjithatë, nuk ka qenë kurrë kështu; propozimet fillestare për arkitekturën e rrjeteve dixhitale, të paraqitura nga shkencëtari monumental Vannevar Bush në 1945 dhe ato të paraqitura nga shkencëtari kompjuterik Ted Nelson në 1960, ruajtën origjinën.

Tani AI po zbulon kostot e vërteta të injorimit të kësaj qasjeje. Pa origjinë, ne nuk kemi asnjë mënyrë për t'i kontrolluar AI-të tona ose për t'i bërë ato ekonomikisht të drejta.
Dhe kjo rrezikon ta shtyjë shoqërinë tonë në buzë.

Nëse një chatbot duket të jetë manipulues, i keq, i çuditshëm ose mashtrues, çfarë lloj përgjigjeje duam kur pyesim pse?

Zbulimi i shembujve të domosdoshëm paraardhës nga të cilët roboti mësoi sjelljen e tij do të jepte një shpjegim: do të mësojmë se ai u bazua në një vepër të veçantë të trillimeve të fansave, të themi, ose një telenovelë.

Ne mund të reagojmë ndaj atij rezultati ndryshe dhe të rregullojmë hyrjet e modelit për ta përmirësuar atë.
Pse nuk duhet të jetë gjithmonë i disponueshëm ai lloj shpjegimi?
Mund të ketë raste në të cilat prejardhja nuk duhet të zbulohet, në mënyrë që t'i jepet përparësi privatësisë - por origjina zakonisht do të jetë më e dobishme për individët dhe shoqërinë sesa do të ishte një angazhim ekskluziv ndaj privatësisë.

Sfidat teknike të dinjitetit të të dhënave janë reale dhe duhet të frymëzojnë ambicie serioze shkencore.
Sfidat e politikave do të ishin gjithashtu thelbësore – ndoshta një shenjë se ato janë kuptimplote dhe konkrete.

Por ne duhet të ndryshojmë mënyrën se si mendojmë dhe të përqafojmë punën e vështirë të rinovimit.
Duke këmbëngulur me idetë e së kaluarës - mes tyre, një magjepsje me mundësinë e një AI që jeton në mënyrë të pavarur nga njerëzit që kontribuojnë në të - ne rrezikojmë të përdorim teknologjitë tona të reja në mënyra që e bëjnë botën më keq.

Nëse shoqëria, ekonomia, kultura, teknologjia ose çdo sferë tjetër e veprimtarisë duhet t'u shërbejë njerëzve, kjo mund të ndodhë vetëm sepse ne vendosim që njerëzit të gëzojnë një status të veçantë për t'u shërbyer. Kjo është lutja ime për të gjithë kolegët e mi. Mendoni për njerëzit. Njerëzit janë përgjigjja për problemet e bitave.

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page