Digital THink Tank (DTT)

Star Trek Astăzi: Omenirea nu poate fi capabilă să controleze inteligența artificială superinteligentă?

Este posibil ca omenirea să nu poată controla inteligența artificială superinteligentă (AI), cred autorii unui studiu teoretic recent. În plus, este posibil să nu știm nici măcar că avem acest tip de AI (inteligență artificială) a creat.
Progresul rapid al algoritmilor de inteligență artificială are loc în fața ochilor noștri. Mașinile câștigă împotriva oamenilor la goană și poker, înving piloții de luptă cu experiență în lupta aeriană, învață de la bază prin încercări și erori, anunță o mare revoluție în medicină și științele vieții, fac diagnostice, precum și medici și pot diferenția mai bine între păsări decât oamenii. Acest lucru arată cât de rapid este progresul în multe domenii.

Sursa imaginii: Pixabay


Referința episodului Star Trek: General / Androids - AI

Odată cu această avansare vine îngrijorarea dacă vom putea controla inteligența artificială. Preocupări care au fost ridicate de cel puțin câteva decenii. Pe cei trei celebri îi cunoaștem din 1942 Legile robotuluicare l-au favorizat pe scriitor Isaac Asimov descris în nuvela sa „Jocul etichetei”:

1) Un robot nu trebuie să cauzeze rău unei persoane sau, prin inacțiune, să permită să fie cauzată daune unei persoane,

2) un robot trebuie să respecte poruncile unui om, cu condiția ca acestea să nu încalce prima lege și

3) un robot trebuie să se protejeze atâta timp cât nu încalcă prima sau a doua lege.

Mai târziu adăugat Asimov se adaugă o lege generală 0: Un robot nu trebuie să cauzeze rău omenirii sau să provoace daune prin omisiuneÎn 2014, filosoful Nick Bostrom, directorul Institutului pentru Viitorul Umanității de la Universitatea Oxford, a studiat cum ne poate distruge AI super-inteligent, cum îl putem controla și de ce diverse metode de control ar putea să nu funcționeze. Bostrom a identificat două probleme cu controlul AI. Primul este controlul asupra a ceea ce poate face AI. De exemplu, putem controla dacă ar trebui să se conecteze la internet. Al doilea este controlul asupra a ceea ce vrea să facă. De exemplu, pentru a-l controla trebuie să-l învățăm principiile coexistenței pașnice cu oamenii. După cum a remarcat Bostrom, o IA super-inteligentă va fi probabil capabilă să depășească orice limitări pe care dorim să le punem asupra a ceea ce poate face. În ceea ce privește a doua problemă, Bostrom se îndoiește că suntem AI superinteligentă ar putea preda orice.

Acum, Manuel Alfonseca și echipa sa de la Universidad Autonoma de Madrid au decis să abordeze problema controlului inteligenței artificiale. El a descris rezultatele muncii sale în Journal of Artificial Intelligence Research.

Spaniolii notează că orice algoritm care ar trebui să se asigure că AI nu dăunează oamenilor trebuie să simuleze mai întâi un comportament care ar putea duce la rănirea unei persoane, astfel încât mașina să o poată recunoaște și opri. Cu toate acestea, potrivit cercetătorilor, niciun algoritm nu va fi capabil să simuleze comportamentul inteligenței artificiale și să determine cu certitudine absolută dacă o anumită acțiune poate duce la rănirea oamenilor. S-a dovedit deja că Prima lege a lui Asimov este o problemă care nu poate fi calculată.
În plus, este posibil să nu știm că am creat o mașină superinteligentă, concluzionează cercetătorii. Motivul este că Teorema Rice, care spune că nu poți ghici rezultatul unui program de computer doar uitându-te la codul acestuia.

Dar Alfonseca și colegii săi au și vești bune. Ei bine, nu mai trebuie să ne facem griji cu privire la ce va face AI super-inteligent. Există, de fapt, trei restricții principale privind tipul de cercetare pe care îl desfășoară spaniolii. În primul rând, o astfel de IA superinteligentă va apărea doar în 200 de ani. În al doilea rând, nu se știe dacă este chiar posibil să se creeze acest tip de inteligență artificială, adică o mașină care este inteligentă în atât de multe domenii cât oamenii. Și în al treilea rând, chiar dacă este posibil să nu putem controla AI superinteligentă, ar trebui totuși să fie posibil să controlăm inteligența artificială care este superinteligentă într-un interval îngust.