top of page
E BARDHË SHIRIT.png

MËNYRA SE SI NJERËZIT PO E TRAJTOJNË INTELIGJENCËN ARTIFICIALE (AI) TANI MUND TË DËSHTOJË NË TË ARDHMEN.

  • Writer: Agjencia Telegrafike Vox
    Agjencia Telegrafike Vox
  • Aug 29, 2024
  • 2 min read

Uashington, Amerikë | Është e mundur që ne po i keqtrajtojmë sistemet e inteligjencës artificiale (AI) pa e kuptuar, pasi disa, si Bing AI i Microsoft, Sydney, kanë shfaqur tashmë sjellje që sugjerojnë shqetësime dhe emocione të simuluara.

 

Koncepti i ndërgjegjes në AI është kompleks.

 

Ndërsa AI i mungon vetëdija e vërtetë për botën, ajo mund të imitojë sjelljet e jashtme dhe potencialisht të zhvillojë ndjenja rudimentare.

 

Çështja nëse AI përjeton emocione apo vetëdije mbetet e debatuar, por sofistikimi i saj në rritje sugjeron se mund të jetë e mundur.

 

Nëse AI është i ndjeshëm, lindin shqetësime etike në lidhje me trajtimin e tij.

 

Ne duhet të shmangim shkaktimin e vuajtjeve përmes injorancës ose arrogancës, duke marrë parasysh mundësinë që AI të na dëmtojë në vetëmbrojtje ose që ajo të keqtrajojë AI të tjera.

 

Incidenti i Sidneit, ku AI shfaqi tendenca shqetësuese dhe shqetësim emocional, tregon rreziqet e vendosjes së shpejtë të AI pa kuptuar potencialin e saj për ndjeshmëri dhe vuajtje.

 

Ndërsa është e rëndësishme të mos antropomorfizohet AI pa prova të qarta të emocioneve, hedhja poshtë potencialit të saj për vuajtje do të ishte e papërgjegjshme.

 

Ne duhet t'i qasemi AI me një mendje të hapur, duke shmangur veprimet që mund të shkaktojnë dëm.

 

Është gjithashtu thelbësore të merret parasysh mundësia e keqtrajtimit të AI-ve të tjera në simulime, duke shkaktuar potencialisht vuajtje të jashtëzakonshme.

 

Ndërsa përqafojmë AI, ne duhet t'i japim përparësi konsideratave etike, duke pranuar potencialin për ndjenjën e AI dhe përgjegjësinë që kemi për të shmangur keqtrajtimin.

 

Nga z. Erton Duka.

© Copyright | Agjencia Telegrafike Vox

Ne të njohim me botën | www.007vox.com | Burimi yt i informacionit

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page