Guia docent: Capítol Quart

Guia del professor, amb preguntes i suggeriments per propiciar un debat

BENVINGUDES I BENVINGUTS AL FUTUR!

 

Resum del “Projecte SPiDeR”

Després d’haver passat uns anys en una universitat americana, Júlia Pagès torna a Barcelona a fer de professora i li assignen el despatx d’una catedràtica, l’Ariadna Mestres, que s’acaba de jubilar. La Júlia s’endú una sorpresa majúscula quan a l’ordinador, que han reformatat, hi troba informació i contrasenyes de la professora Mestres. Una icona en forma d’aranya apareix sobtadament a la pantalla en diverses ocasions.

Paral·lelament, Cèlia, una nena de tretze anys a qui criogenitzaren perquè patia una malaltia terminal, és retornada a la vida al segle XXII per ser adoptada. En una societat futura on cadascú té un assistent robòtic, Cèlia xoca amb la manera de pensar, actuar i relacionar-se de la mare adoptiva i el seu entorn, tan diferent de la de la seva família biològica i els seus amics.

La inadaptació de Cèlia atrau Silvana, una massatgista emocional que estudia les
sensacions perdudes pels humans, i Leo, un jove enginyer que està dissenyant una
pròtesi de creativitat a l’empresa de robots personals líder del mercat, CraftER, dirigida
per l’enigmàtic Doctor Craft.

 

Nivells educatius: Ensenyament Secundari Obligatori, 1er i 2n de Batxillerat

Assignatures: Llengua catalana i literatura, Llengua castellana i literatura,
Ciències socials, Religió o Cultura i valors ètics, Tecnologia,
Filosofia, Tutoria, Treball de Síntesi, Projectes

 

Capítol Quart “DESIGUALTATS”

PREGUNTES

• Es pot garantir la fiabilitat/seguretat d’una màquina? Com es poden prevenir el
pirateig i el vandalisme?
• Qui és responsable de les accions dels robots? Hauria de ser modificable el
comportament moral en els robots?
• Quan ha de prevaler el benestar de la societat sobre la privacitat de les dades
personals?
• Quines fractures digitals pot provocar la robòtica?

 

SUGGERIMENTS PER A LA DISCUSSIÓ

Els robots autònoms han de prendre decisions en situacions imprevistes pels seus
dissenyadors. Això planteja no només qüestions de fiabilitat i seguretat per als usuaris,
sinó també el repte de regular la presa de decisions automàtica, especialment en
contextos èticament sensibles, i d’establir procediments per atribuir responsabilitats
als robots.

Alguns argumenten que els robots poden prendre millors decisions quant a
moralitat que no pas els humans, ja que la seva racionalitat no està limitada per la
gelosia, la por, o el xantatge emocional. Fins i tot assumint que unes regles d’ètica
general es poguessin implementar en els robots, sorgeixen preguntes sobre qui ha de
decidir quina moral es codifica en aquestes regles i fins a quin punt les normes poden
ser modificables per l’usuari. Per exemple, no està clar si s’hauria de permetre a un
robot actuar en contra de l’autonomia de l’usuari per comportar-se de forma més ètica
cap a altres éssers humans o en interès de la societat en general.

Un robot és una eina i, com a tal, no és responsable de res, però sempre hauria
de ser possible determinar qui és legalment responsable de les seves accions. En el cas
dels robots capaços d’aprendre de l’experiència, aquesta responsabilitat pot ser
compartida entre el dissenyador, el fabricant i l’usuari; també un hacker pot carregar
amb la responsabilitat si es demostra la seva intervenció il·legal. En previsió de
possibles litigis, és crucial que el procés de decisió d’un robot sigui reconstruïble. S’ha
suggerit que els robots estiguin equipats amb una caixa negra no manipulable, com la
que ara duen els avions, que documenti contínuament els esdeveniments rellevants i
els resultats significatius del procés d’aprenentatge.

És ben sabut que les tecnologies digitals originen fractures socials (en funció de
l’edat, la riquesa, l’educació, les zones geogràfiques) i els robots poden ampliar
algunes d’aquestes fractures a causa del seu cost, la seva implementació física i el seu
ús no trivial. A la inversa, desenvolupar assistents robòtics per a col·lectius vulnerables
podria reduir les discriminacions socials i ajudar a aprimar aquestes fractures si es
prenguessin mesures polítiques per proporcionar els recursos financers i els
coneixements necessaris a aquests grups.

 

Si desitges més informació contacta amb nosaltres:

 

    FER UN COMENTARI

    Introduïu el vostre comentari.
    Introduïu el vostre nom aquí

    Información básica sobre protección de datos Ver más

    • Responsable: Fundació Episteme.
    • Finalidad:  Moderar los comentarios.
    • Legitimación:  Por consentimiento del interesado.
    • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio. El Titular ha contratado los servicios de alojamiento web a Nominalia que actúa como encargado de tratamiento.
    • Derechos: Acceder, rectificar y suprimir los datos.
    • Información Adicional: Puede consultar la información detallada en la Política de Privacidad.

    Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.