"Unleash your creativity and unlock your potential with MsgBrains.Com - the innovative platform for nurturing your intellect." » Romanian Books » 📚📚„Redescoperirea conversației” de Sherry Turkle

Add to favorite 📚📚„Redescoperirea conversației” de Sherry Turkle

Select the language in which you want the text you are reading to be translated, then select the words you don't know with the cursor to get the translation above the selected word!




Go to page:
Text Size:

Atunci când le vorbim despre problemele noastre umane de dragoste şi pierderi sau despre plăcerea de a mânca supă de roşii şi de a dansa desculţi în ploaie, ele nu pot oferi decât simulări ale empatiei şi conexiunii.

Ceea ce poate şti inteligenţa artificială este programul nostru, conţinutul e-mailurilor noastre sau preferinţele noastre în materie de filme, televiziune şi mâncare. Dacă purtăm dispozitive de monitorizare corporală, inteligenţa artificială poate şti ce ne activează în plan emoţional, deoarece poate deduce acest lucru din indicatorii fiziologici, dar nu va înţelege ce înseamnă

aceste lucruri pentru noi.

Ne dorim ca dispozitivele noastre să priceapă sensul lucrurilor şi suntem dispuşi să ne alimentăm fantezia că reuşesc acest lucru.

Joaca de-a vulnerabilitatea

Ne jucăm de-a vulnerabilitatea cu inteligenţa artificială de foarte mult timp, încă de când sistemele nu erau nici pe departe la fel de sofisticate ca acum.

În anii ’60, un program informatic numit ELIZA, scris de Joseph Weizenbaum de la MIT4, a adoptat stilul de „oglindire“ al psihoterapeutului din şcoala rogeriană12. Astfel, dacă am tasta „De ce o urăsc pe mama?“, ELIZA ar putea răspunde: „Văd că spui că îţi urăşti mama“. Programul a reuşit – cel puţin pentru o perioadă scurtă de timp – să creeze iluzia că

suntem ascultaţi de o inteligenţă. Iată ce se petrece: vrem să vorbim cu dispozitivele chiar şi atunci când ştim că nu sunt demne de mărturisirile noastre. Eu numesc acest fenomen „efectul ELIZA“.

Weizenbaum a fost uimit de faptul că unii oameni (de exemplu, secretara lui şi câţiva studenţi), care cunoşteau limitele capacităţii de înţelegere a programului ELIZA, doreau totuşi să rămână singuri pentru a i se confesa.

ELIZA a demonstrat că, aproape în unanimitate, oamenii proiectează

atribute umane asupra programelor care dau impresia că au însuşiri umane, efect amplificat atunci când se află în prezenţa roboţilor numiţi dispozitive

„sociabile“ – dispozitive care fac lucruri precum monitorizarea mişcărilor noastre, stabilirea contactului vizual sau reţinerea numelui nostru.5 În astfel de momente, oamenii simt că sunt în prezenţa altuia căruia îi pasă de ei. Un tânăr de 26 de ani a stat de vorbă cu un robot pe nume Kismet care poate stabili contactul vizual, citi expresiile faciale şi vorbi cu o cadenţă umană.

Bărbatul consideră că Kismet îl încurajează atât de mult încât poate vorbi cu el despre problemele sale cotidiene.6

Dispozitivele înzestrate cu voce au o capacitate deosebită de a ne face să

ne simţim înţeleşi.7 Copiii învaţă mai întâi să-şi recunoască mama după

voce, chiar şi atunci când încă se află în pântece. Pe parcursul evoluţiei noastre, singurele forme de comunicare pe care le auzeam erau purtate tot de oameni. Acum, odată cu dezvoltarea vorbirii artificiale performante, suntem primii oameni cărora li se cere să distingă vorbirea umană de cea

nonumană. Din punct de vedere neurologic, nu suntem pregătiţi pentru această sarcină. Din moment ce fiinţele umane au auzit de atâta timp – să

zicem 200.000 de ani – numai voci umane, este nevoie de un efort mental serios pentru a distinge vorbirea umană de cea generată artificial.8 Pentru creierul nostru, vorbitul e specific oamenilor.

Maşinăriile cu chip asemănător celui uman au şi ele o putere deosebită.

La oameni, forma unui zâmbet sau a unei încruntări eliberează substanţe chimice care ne afectează starea mentală. Neuronii oglindă se declanşează

atât atunci când acţionăm, cât şi atunci când îi observăm pe alţii acţionând.9

Simţim ceea ce citim pe feţele altora. Faţa expresivă a unui robot poate avea acest impact asupra noastră. Filozoful Emmanuel Lévinas scrie că prezenţa unui chip iniţiază angajamentul etic uman. Faţa comunică: „Să nu mă

ucizi“. Suntem condiţionaţi de faţă chiar înainte de a afla ce se află în spatele ei, chiar înainte de a afla că aparţine unui robot care nu poate fi ucis.

În viziunea lui Lévinas, faţa robotului poate sugera: „Să nu mă abandonezi“

– din nou, un angajament etic şi emoţional care ne condiţionează, dar care nu are nici un sens atunci când îl raportăm la o maşinărie.10

Faţa expresivă a unui robot ne plasează într-un peisaj în care căutăm recunoaştere şi simţim că o putem obţine. De fapt, suntem stimulaţi să

aşteptăm empatie din partea unui obiect care nu poate oferi aşa ceva.

Am lucrat la Laboratorul de Inteligenţă Artificială din cadrul MIT, unde oamenii au întâlnit pentru prima dată robotul sociabil Kismet.11 Ceea ce spunea Kismet nu avea de fapt nici un sens, dar sunetele rostite erau pline de afecţiune, curiozitate sau îngrijorare.

Uneori, vizitatorii lui Kismet aveau impresia că robotul îi înţelege şi că le

„aude“ poveştile. Atunci când lucrurile funcţionau perfect din punct de vedere tehnic, aceştia simţeau ceva asemănător cu o conexiune empatică.

Această imitaţie convingătoare a înţelegerii este impresionantă şi poate fi foarte amuzantă dacă vă gândiţi la aceste întâlniri ca la un teatru. Am văzut însă copii care îl considerau pe Kismet un prieten real. Am văzut copii care sperau să fie recunoscuţi ca atare de robot şi care uneori erau necăjiţi că nu li se oferă nimic îmbucurător.

Estelle, în vârstă de 12 ani, l-a vizitat pe Kismet pentru a purta o conversaţie. Se simţea singură, părinţii ei erau divorţaţi; timpul petrecut cu

Kismet a făcut-o să se simtă specială. Iată un robot care o asculta doar pe ea. În ziua vizitei lui Estelle, aceasta a fost atrasă de expresiile faciale schimbătoare ale lui Kismet, însă Kismet nu se afla în cea mai bună formă

vocală. La finalul întâlnirii dezamăgitoare, Estelle şi mica echipă de cercetători care a lucrat cu ea s-au întors în camera unde erau intervievaţi copiii înainte şi după ce întâlneau roboţii. Estelle a început să bea sucul şi să

mănânce biscuiţii şi fursecurile pe care le lăsaserăm ca gustare. Nu s-a oprit până când nu am rugat-o să lase puţină mâncare şi pentru ceilalţi copii. Dar a făcut-o numai pentru scurt timp. A început să mănânce din nou, în grabă, în timp ce aşteptam maşina de serviciu care avea s-o ducă înapoi la activităţile ei extraşcolare.

Estelle ne-a povestit de ce era supărată: Kismet nu o plăcea. Robotul începuse să vorbească cu ea, dar apoi s-a îndepărtat. I-am explicat că nu e aşa. Problema fusese de ordin tehnic. Estelle tot nu era convinsă. Din punctul ei de vedere, eşuase în cea mai importantă zi din viaţa ei. Când să

plece, Estelle a luat patru cutii de prăjituri din dulapul cu provizii şi le-a băgat în rucsac. Nu am oprit-o. Epuizaţi, eu şi membrii echipei mele ne-am reunit la o cafenea din apropiere pentru a ne pune o întrebare extrem de dificilă: Poate un robot stricat să distrugă un copil?

Din punct de vedere etic, nu ne-ar preocupa dacă un copil s-ar juca cu o copie coruptă a software-ului Microsoft Word sau cu o păpuşă Raggedy Ann ruptă. Un program de procesare de text serveşte la realizarea unui lucru elementar. Dacă merge mai prost decât de obicei într-o anumită zi, ei bine, provoacă frustrări, dar nimic mai mult. Un program care însă te încurajează

să ai o conexiune afectivă cu el este cu totul altceva.

Cu ce se deosebeşte software-ul defect Kismet de păpuşa ruptă? O

Are sens

Copyright 2023-2059 MsgBrains.Com