Informacija

Što je objašnjiva umjetna inteligencija i je li potrebna?

Što je objašnjiva umjetna inteligencija i je li potrebna?

Objašnjiva umjetna inteligencija-XAI tema je o kojoj se posljednjih godina često raspravlja i koja je predmet kontradikcija. Prije rasprave o pouzdanosti umjetne inteligencije (AI), ako AI pokušava modelirati naše razmišljanje i donošenje odluka, trebali bismo biti u mogućnosti objasniti kako stvarno donosimo svoje odluke! Nije li?

POVEZANO: VJEŠTAČKA INTELIGENCIJA I STRAH OD NEPOZNATOG

Postoji transformacija strojnog učenja koja se ponekad odvija brže, a ponekad sporije od 1950-ih. U nedavnoj prošlosti najviše je proučavano i najupečatljivije područje strojnog učenja koje ima za cilj modeliranje sustava odlučivanja, ponašanja i reakcija.

Uspješni rezultati dobiveni na polju strojnog učenja doveli su do brzog povećanja primjene AI. Napredni rad obećava da će biti autonomni sustavi sposobni za samopoimanje, učenje, donošenje odluka i kretanje.

POVEZANO: 13 BESPLATNIH STRANICA ZA UVOD U STROJNO UČENJE

Pogotovo nakon devedesetih, koncept dubokog učenja temelji se na prošlosti, ali rekurzivne neuronske mreže, konvolucijske neuronske mreže, učenje ojačavanja i sporne mreže izuzetno su uspješni. Iako se postižu uspješni rezultati, nedovoljno je ljudskim korisnicima objašnjavati ili objašnjavati odluke i radnje tih sustava.

Opseg objašnjive umjetne inteligencije

Modeli dubokog učenja dizajnirani sa stotinama slojevitih milijuna umjetnih neuronskih mreža nisu nepogrešivi. Oni mogu brzo izgubiti svoju vjerodostojnost, pogotovo kad ih se jednostavno zavede kao u slučaju napada s jednim pikselom! Tada postaje neizbježno postaviti pitanje koliko uspješno ili neuspješno!

Ministarstvo obrane (DoD) navodi da se pametniji, autonomni i simbiotski sustavi suočavaju s izazovima.

"Objašnjiva umjetna inteligencija - posebno objašnjivo strojno učenje - bit će presudna ako budući ratnici trebaju razumjeti, prikladno vjerovati i učinkovito upravljati novom generacijom umjetno inteligentnih strojnih partnera."

Složenost ove vrste naprednih aplikacija raste s uspjesima, a razumljivost i objašnjenje postaju teški. Čak i na nekim konferencijama postoje samo sesije na kojima se raspravlja o ovoj temi.

Razlozi za nove sustave strojnog / dubokog učenja

Cilj mu je objasniti razloge za nove sustave strojnog / dubokog učenja, utvrditi njihove snage i slabosti i razumjeti kako se ponašati u budućnosti. Strategija za postizanje ovog cilja je razviti nove ili modificirane tehnike umjetnog učenja koje će stvoriti više definiranih modela.

Ovi se modeli namjeravaju kombinirati s vrhunskim tehnikama interaktivnog sučelja čovjek-računalo, koje mogu pretvoriti modele u razumljive i korisne dijaloške okvire s objašnjenjima za krajnjeg korisnika.

Sa tri osnovna očekivanja, poželjno je pristupiti sustavu:
▪. Objasnite svrhu koja stoji iza utjecaja na strane koje dizajniraju i koriste sustav.
▪. Objasnite kako se koriste izvori podataka i rezultati.
▪. Objasnite kako ulazi iz AI modela vode do izlaza.

„XAI je jedan od nekolicine trenutnih DARPA programa za koje se očekuje da omoguće - treće valne sustave umjetne inteligencije - gdje strojevi razumiju kontekst i okruženje u kojem djeluju, te s vremenom grade temeljne modele objašnjenja koji im omogućuju da karakteriziraju pojave u stvarnom svijetu . "

Ako krenemo iz medicinske prakse, nakon ispitivanja podataka o pacijentu, i liječnik bi trebao razumjeti i objasniti pacijentu da je dotičnom pacijentu predložio rizik od srčanog udara na preporuku sustava za podršku odlučivanju.

U ovoj fazi, prvo, koji se podaci procjenjuju, još je jedan važan kriterij. Također je važno utvrditi koji su podaci potrebni i što je potrebno učiniti za pravilnu procjenu.

Psihologija objašnjenja

Pogledajmo točku u kojoj odbijamo koristiti tehnologiju umjetnog učenja jer ne možemo objasniti kako umjetna inteligencija donosi odluku. S druge strane, toliko ljudi zapravo ne može objasniti kako su donijeli odluku!

Zamislimo kako je osoba donijela odluku na razini modela: Kada pristupamo svojoj biološkoj strukturi na kemijskoj i fizičkoj razini, govorimo o električnim signalima iz jedne moždane stanice u drugu moždanu stanicu. Ako nećete biti zadovoljni ovim objašnjenjem, recite mi kako ste odlučili naručiti kavu!

Kad je jedan od vaših prijatelja naručio ledenu kavu, drugi je naručio toplu kavu, a drugi u kafiću naručio šalicu čaja. Zašto biraju ledenu i vruću kavu? Može li netko objasniti kemikalije i sinapse u mozgu? Možeš li objasniti? Želite li takvo objašnjenje? Znate li što je to? Čovjek počinje izmišljati priču o tome kako on / ona odlučuje! Nadam se da će to biti fantastična priča koju ćete slušati, probajte!

Samo pogledajte svoje ulazne i izlazne podatke, a zatim ispričajte zabavnu priču! Zapravo postoji sličan pristup analitičkim i važnim pitanjima. Interpretacije, transparentnost i jasnoća analitički su, a analize bez testa poput jednosmjerne karte za vlak koja uzrokuje osjećaj sigurnosti.

U savršenim uvjetima;
▪, Sustav koji daje najbolje performanse,
▪. Želite najbolje objašnjenje.

Ali stvarni život nas prisiljava na odabir.

Izvedba nasuprot objašnjivosti

Tumačenje: Razumijete, ali ne ide dobro!

Izvođenje: Ne razumijete, ali dobro funkcionira!

Pogotovo akademici, istraživači i tehnološke tvrtke općenito neće poklanjati puno pažnje u mjeri u kojoj će pridavati veću važnost izvedbi. Međutim, scenarij s ljudima i institucijama uključenim u sektor malo je drugačiji. Žele vjerovati i čekaju objašnjenje.

Pristupi AI razlikuju se za banke, osiguravajuća društva, pružatelje zdravstvenih usluga i druge različite industrije. To je zato što modeli za te sektore donose različite zakonske propise i etičke zahtjeve. U ovom slučaju opet dolazimo do iste točke. Ako želite da vaš sustav bude objašnjen u sljedećem stanju, zasad ćete ga morati zamijeniti onim jednostavnijim koji nije prejak!

Istraživanja na ovu temu uglavnom su DARPA, Google, DeepMind i tako dalje. Iako se institucije nastavljaju intenzivno provoditi, to se razumije iz izvješća; Bez obzira koji sektor i koga koriste sustavi umjetne inteligencije, postoji takav odnos između jasnoće i točnosti da je kompromis neizbježan i čini se da će se neko vrijeme nastaviti.

Napokon, AI se ne bi trebao transformirati u božansku moć za kojom ćemo biti vođeni bez uspostavljanja uzročno-posljedične veze. S druge strane, ne bismo trebali zanemariti uvid koji će nam se pružiti.

U osnovi, moramo razmišljati o stvaranju fleksibilnih i razumljivih modela koji mogu raditi zajedno u harmoniji sa stručnjacima koji imaju znanje na tehničkoj i akademskoj razini te mišljenja iz različitih sektora i disciplina.

Hvala

Nježno zahvaljujem Başak Buluz, Yavuz Kömeçoğlu ve Hakan Aydemir na povratnim informacijama.


Gledaj video: Treći element S6E31: Umjetna inteligencija - kraj ljudskog roda? (Siječanj 2022).