Poate că pare destul de evident faptul că un robot ar trebui să facă ceea ce îi ordonă o persoană în orice moment. Însă cercetătorii din Massachusetts încearcă ceva ce multe filme SF au anticipat: învaţă roboţii să refuze unele instrucţiuni.
Pentru roboţii înarmaţi cu arme potenţial periculoase pentru om, precum instrumentele de pe o linie de asamblare, e clar că îşi vor urmări întotdeauna cu precizie programarea. Însă în fiecare zi apar roboţi din ce în ce mai inteligenţi, iar acum vor avea puterea de a lua decizii singuri. Acest fapt duce la o problemă delicată: Cum anume programezi un robot să gândească şi să anuleze comenzi care sunt periculoase pentru oameni sau chiar şi pentru sine?
Asta încearcă cercetătorii de la Universitatea Tufts să stabilească şi au găsit cel puţin o strategie pentru anularea inteligentă a comenzilor.
Strategia funcţionează în mod similar cu procesul pe care creierul uman îl efectuează atunci când primeşte comenzi vocale. E vorba doar de o listă lungă de întrebări etice pe care ni le punem atunci când ni se spune să facem ceva. Întrebările încep cu ,,Ştiu cum să fac asta?” şi ajung până la ,,Încalc vreun principiu al normalităţii dacă fac asta?”. Ultima întrebare este cheia, din moment ce nu este normal să răneşti alţi oameni sau să distrugi lucruri.
Echipa de la Tufts a simplificat acest tip de monolog interior într-o serie de argumente logice pe care software-ul robotului le poate înţelege, iar rezultatele sunt foarte bune. Spre exemplu, unul dintre roboţii experimentali a refuzat atunci când i s-a spus să meargă înainte printr-un zid de pahare (pe care l-ar fi distrus cu uşurinţă) deoarece persoana care a dat comanda nu era de încredere.
Octavian Cătuşanu