Digital THink Tank (DTT)

Cum să păcălești inteligența artificială - om versus mașină.

Sisteme informatice AI își găsesc drumul în multe domenii ale vieții noastre și oferă un mare potențial, de la vehicule cu conducere automată până la ajutorarea medicilor cu diagnostice și roboți autonomi de căutare și salvare.

Cu toate acestea, una dintre problemele majore nerezolvate, în special cu ramura AI cunoscută sub numele de „rețele neuronale”, este că oamenii de știință de multe ori nu pot explica de ce lucrurile merg prost. Acest lucru se datorează lipsei de înțelegere a procesului de luare a deciziilor în cadrul sistemelor de IA. Această problemă este cunoscută sub numele de problema „cutiei negre”.

Cine este mai deștept?

Un nou proiect de cercetare de 15 luni al Universității din Lancaster, în care este implicată și Universitatea din Liverpool, își propune să descopere secretele problemei cutiei negre și să găsească o nouă modalitate de a „Invatare profunda„de modele de computer AI care fac deciziile transparente și explicabile.

Proiectul "Către sisteme de învățare robotizate autonome responsabile și explicabile„va dezvolta o serie de proceduri de verificare și testare a securității pentru dezvoltarea algoritmilor de inteligență artificială. Acestea vor contribui la asigurarea faptului că deciziile luate de sisteme sunt solide și explicabile.

Sursa imaginii: Pixabay


Pregătire

Cercetătorii vor folosi o tehnică numită „antrenament invers”. Acesta constă în prezentarea sistemului într-o situație dată în care învață cum să acționeze - de ex. B. Detectarea și ridicarea unui obiect. Cercetătorii schimbă apoi diferite elemente ale scenariului, cum ar fi culoarea, forma, mediul și observă modul în care sistemul învață prin încercări și erori. Cercetătorii consideră că aceste observații pot duce la o mai bună înțelegere a modului în care sistemul învață și înțelege Procesul de luare a deciziilor acordat.


Dezvoltând modalități de a crea sisteme cu rețele neuronale care pot înțelege și prevedea deciziile, cercetarea va fi cheia pentru deblocarea sistemelor autonome în domenii critice pentru siguranță, cum ar fi vehiculele și roboții din industrie.

Dr. Wenjie Ruan, profesor la Școala de Informatică și Comunicații a Universității Lancaster și cercetător principal al proiectului, a spus: „Deși Invatare profunda Întrucât una dintre cele mai remarcabile tehnici de inteligență artificială a avut un succes imens în multe aplicații, are propriile probleme atunci când este utilizată în sisteme critice de securitate, inclusiv mecanisme decizionale opace și vulnerabilitate la atacuri contradictorii. „Acest proiect este o oportunitate excelentă pentru noi de a reduce decalajul de cercetare dintre tehnicile de învățare profundă și sistemele critice de siguranță.