Acum zeci de ani, marele scriitor de science-fiction, Isaac Asimov, si a imaginat o lume in care roboti faceau parte din viata noastra de zi cu zi. Acest lucru s-a intamplat cu mult timp inainte ca inteligenta artificiala sa existe la nivelul sau cel mai rudimentar. O mare parte din creatia literara a lui Asimov este construita in jurul acestor trei legi, pe care autorul le-a creat pentru a recomanda parametri clari ai functionarii robotilor in scopul de a preveni scaparea acestora de sub controlul omului.
Aceste norme garanteaza ca robotii vor servi umanitatea si nu invers. Acum, British Standards Institute (BSI) a emis propria versiune a celor trei legi. In versiunea lui Asimov, cele trei legi sunt concepute pentru a garanta ca oamenii sunt o prioritate inaintea robotilor. Legile lui Asimov cer robotilor sa protejeze viata umana, sa se supuna ordinelor date de oameni si sa-si protejeze propria lor existenta.
Documentul a fost prezentat de institutul britanic la recentul eveniment Social Robotics and AI conference din Oxford si vine ca o evaluare etica a riscurilor pe care le prezinta robotii.
Dupa cum va puteti imagina, documentul este mult mai complex decat legile scrise de Asimov. Insa, el lucreaza la o premisa similara: „Robotii nu ar trebui sa fie proiectati pentru a ucide sau pentru a face rau oamenilor.”
De asemenea, el subliniaza faptul ca oamenii sunt responsabili pentru actiunile robotilor, chiar si in cazul in care un robot nu a actionat in mod etic.
In conformitate cu BSI, cel mai bun mod de a ne asigura ca oamenii sunt responsabili pentru ceea ce fac robotii, este de a asigura un design transparent al AI-ului (inteligentei artificiale). Chiar daca codul robotilor este usor accesibil, asta nu garanteaza ca putem sti intotdeauna ce fac acestia.
In cazul retelelor neuronale, executiile si deciziile sunt produsul invatarii profunde. In cazul in care un AI utilizat in aplicarea legii a inceput sa afiseze un comportament rasist, spre exemplu, ar fi dificil sa-ti dai seama de ce.
Dar, dincolo de designul AI-ului, raportul BSI speculeaza idei mai marete, cum ar fi formarea de legaturi emotionale cu roboti. Este bine sa iubesti un robot? Nu exista niciun raspuns clar la intrebarea asta, dar cu siguranta va fi o problema cu care va trebui sa ne confruntam.
Ce s-ar intampla daca devenim prea dependenti de AI? British Standards Institute indeamna designerii de AI sa nu faca abstractie de elementul uman. Daca ne bazam pe un AI sa execute o sarcina, s-ar putea sa nu observam cand comportamentul sau prioritatile sale incep sa genereze rezultate suboptimale sau cand va incepe sa se aprovizioneze cu arme pentru exterminarea omenirii.