La responsabilitat de ser humans en temps d'IA.
IA Ètica ia-x-cultura

La responsabilitat de ser humans en temps d'IA.

Manel Hernández Manel Hernández
·

Enmig de l’acceleració tecnològica, sovint escolto una tesi fascinant però perillosa: la idea que els éssers humans, biològicament, no som més que algorismes químics. Si acceptem aquesta premissa, la conclusió lògica és que qualsevol intel·ligència artificial que processi informació més ràpid que nosaltres ens torna obsolets.

Però aquest materialisme reduccionista oblida una distinció fonamental. Allò que anomenem “ànima” o “condició humana” no és una essència màgica ni un fantasma dins la màquina.

L’Ànima com a Responsabilitat: Des de la filosofia contemporània, entenem que no tenim una essència fixa i programada. Tenim alguna cosa molt més vertiginosa: la llibertat de construir-nos. L‘“ànima” no és un objecte que tenim; és una acció que exercim. És la capacitat d’aturar el càlcul d’eficiència per fer-nos la pregunta ètica: no només què puc fer, sinó què he de fer? Una màquina executa instruccions; un ésser humà assumeix responsabilitats. Aquesta idea de construir-nos ressona amb el pensament de Nietzsche.

La Persona és un Fi, mai un Mitjà: El risc real del nostre temps no és que les màquines prenguin consciència, sinó que nosaltres perdem la nostra. El risc és que comencem a dissenyar sistemes —empreses, comunitats, societats— on les persones siguin tractades com a insums, com a peces de recanvi per mantenir la maquinària funcionant. El veritable humanisme tecnològic ha de tornar a l’imperatiu kantià: l’ésser humà ha de ser sempre un fi en si mateix, mai un simple mitjà. És la mateixa alarma que trobem a Farenheit 451 davant sistemes que deshumanitzen. Si un sistema necessita consumir o trencar persones per “sobreviure” o ser “eficient”, aquest sistema no és un avenç; és una regressió. Com diu Pablo Sanguinetti, “la tecnologia no és un fi en si mateix; només tindrà sentit si té per objecte millorar la vida de les persones.”

L’Ètica de la Cura Davant la lògica de l’optimització constant, la veritable revolució és la cura. La nostra vulnerabilitat no és un error de codi a corregir; és la base de la nostra**connexió amb l’Altre (Lévinas)**. La tecnologia hauria de servir per amplificar aquesta capacitat de cuidar-nos, no per fer-nos oblidar que, darrere de cada pantalla i cada dada, hi ha un rostre humà.

No es tracta de competir amb la màquina en velocitat de processament. Es tracta de recordar que la dignitat no és un algorisme.

El Concepte Clau: L'Ànima com a Acció

"No som algorismes químics. L'ànima no és un objecte màgic, és la capacitat d'aturar el càlcul d'eficiència per fer-nos la pregunta ètica. La conclusió: Una màquina pot processar dades, però només un ésser humà pot assumir la responsabilitat del que aquestes dades signifiquen."

Preguntes freqüents

Què són les polítiques de supervisió humana?

Protocols que garanteixen que la IA està sota control humà constant, especialment en decisions que afecten persones o dades sensibles. Asseguren que la tecnologia complementa la intel·ligència humana en lloc de substituir-la.

Com complir la regulació europea d'IA?

La UE requereix supervisió humana en sistemes d'alt risc. A IAvers dissenyem sistemes que compleixen des del primer dia, evitant problemes legals futurs i garantint que les decisions crítiques sempre tenen revisió humana.

La IA pot prendre decisions sense humans?

Tècnicament sí, però legalment i èticament no hauria en molts casos. A IAvers advocem per IA com a suport a la decisió humana, no substitució. La dignitat humana exigeix que decisions importants mantinguin supervisió humana.