SCIO: Revista de Filosofía

Buscador

DE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL A UNA ÉTICA DEL CUIDADO EN CONTEXTOS ALGORÍTMICOS: UNA LLAMADA DE ATENCIÓN1

FROM ARTIFICIAL INTELLIGENCE ETHICS TO CARE ETHICS IN ALGORITHMIC CONTEXTS: A WAKE-UP CALL

Marcos Alonso2

Fechas de recepción y aceptación: 15 de febrero y 8 de mayo de 2024

DOI: https://doi.org/10.46583/scio_2024.26.1148

Resumen: En este artículo se exponen algunos de los principales problemas éticos relacionados con la inteligencia artificial (IA). Estas herramientas de IA se han ido implantando en infinidad de áreas, como el ámbito laboral, médico, judicial o administrativo. Si bien estas tecnologías prometen mejorar nuestras prácticas y hacerlas más eficientes, problemas éticos como los sesgos, la discriminación o la vulneración de la privacidad resultan preocupantes. Tras una exposición inicial sobre estos problemas éticos de la IA, se hace una llamada de atención a la necesidad de incorporar las reflexiones de la ética del cuidado a la ética de la inteligencia artificial.

Palabras clave: Ética de la inteligencia artificial (IA), ética algorítmica, sesgos, discriminación, ética del cuidado.

Abstract: This article presents some of the main ethical issues related to artificial intelligence (AI). These AI tools have been implemented in a myriad of areas, such as the workplace, medical, judicial or administrative fields. While these technologies promise to improve our practices and make them more efficient, ethical issues such as bias, discrimination or privacy violations are of concern. After an initial exposition of these ethical problems of AI, attention is drawn to the need to incorporate reflections from care ethics into the artificial intelligence ethics paradigm.

Keywords: Artificial intelligence ethics, algorithmic ethics, bias, discrimination, care ethics.

1. INTRODUCCIÓN

Tras el impresionante desarrollo de la informática y la computación en la segunda mitad del siglo XX, las primeras décadas de nuestro siglo han presenciado un constante auge de las tecnologías digitales, con la difusión de los computadores personales, la creación del Smartphone o la progresiva expansión de internet y sus servicios asociados (Floridi, 2014). Junto a estos avances, el desarrollo y perfeccionamiento de la IA ha sido un gran hito. En este contexto, el ser humano ha creado una cantidad de datos registrados sin parangón en la historia. Las consecuencias de esto están todavía definiéndose, pero su importancia no puede ser exagerada.

Los datos han llegado a ser un bien muy atractivo para diferentes actores. Las empresas sin duda tienen un gran interés en conocer los hábitos y prácticas de sus consumidores. Pero no son los únicos, pues en muchos casos estos datos también pueden ayudar a los propios consumidores o usuarios. Sin embargo, en uno y otro caso, esa materia prima que han llegado a ser los datos no sirve de gran cosa sin herramientas que permitan cribarlos y analizarlos. Aquí es donde entran en juego las herramientas de inteligencia artificial como el Machine Learning, tecnologías desarrolladas sobre una base algorítmica que permiten acelerar e incrementar sustancialmente la eficiencia del manejo de datos.

Los algoritmos en esencia no son más que instrucciones formales estructuradas lógicamente para que unos determinados “inputs” se conviertan, tras un procesamiento, en unos determinados “outputs”. En este sentido, una de las características más interesantes de los algoritmos es que, a partir de una determinada configuración inicial, su procesamiento de la información se realiza de manera autónoma; es decir, una vez establecidas estas instrucciones o reglas, el humano no interviene en la creación de este “output”. También es clave entender que los algoritmos, especialmente aquellos que mediante las recientes tecnologías de Machine Learning pueden perfeccionarse a sí mismos, alcanzan un nivel predictivo sobre futuros comportamientos humanos que los asemeja incluso a una “bola de cristal” (Jackson, 2018, 55).

Es por este motivo, por su carácter autónomo y mucho más potente, que los algoritmos y la IA se han ido poco a poco estableciendo para ayudar, e incluso en algunos casos sustituir, a los seres humanos en diversas tareas que se consideran automatizables. Por ejemplo, en la actualidad contamos con innumerables algoritmos en áreas como las finanzas, la gestión de recursos humanos, el transporte, la medicina o la justicia, por nombrar algunos. Cada una de estas áreas y muchas otras donde los algoritmos van ganando una presencia cada vez más notable, suscita diferentes problemáticas éticas y de diferente intensidad. Los ámbitos legales o sanitarios, por ejemplo, resultan de los más delicados y problemáticos.

2. PRINCIPALES PROBLEMAS ÉTICOS DE LA IA

En los últimos años ha surgido una importante literatura en torno a la ética de la inteligencia artificial, la ética algorítmica, la ética de los datos y otros temas afines (Mittelstadt et al., 2016). En las siguientes líneas expondré sucintamente algunas de las cuestiones éticas que más se han destacado sobre estas cuestiones, de modo que comprendamos mejor el panorama de la discusión sobre estos temas. Me limitaré aquí a abordar los problemas ya existentes que se relacionan con el contexto actual, dejando de lado otras problemáticas de futuro como el posible desarrollo de una superinteligencia artificial (Bostrom, 2016).

2.1. Responsabilidad y accountability

Un primer punto, que en cierto modo está sobrevuela toda otra consideración ética, son los problemas de responsabilidad y accountability. La autonomía de estos sistemas de inteligencia artificial hace que la responsabilidad de sus decisiones quede difuminada o directamente invisibilizada. Si un algoritmo decide que tu seguro de salud sea el doble de caro que el de tu vecino, ¿quién es el responsable? En ocasiones se asume que la responsabilidad debe retrotraerse al programador o programadores que diseñaron el algoritmo. Pero esto también parece excesivo, por cuanto es difícil, por no decir imposible, que un programador prevea todas las aplicaciones y resultados concretos que un determinado algoritmo podría producir. Una situación de enorme gravedad tiene que ver con el deliberado diseño de redes y aplicaciones con el fin de crear una dependencia en los usuarios. Este fenómeno está teniendo graves repercusiones en la sociedad, especialmente entre los jóvenes (Kwon et al, 2016). No es posible en el contexto de este artículo profundizar en esta importante cuestión, pero es claro que la responsabilidad algorítmica es una de las cuestiones éticas más importantes de la implantación de algoritmos e inteligencia artificial; un aspecto que, muy probablemente, implique no sólo a los desarrolladores o empresas, sino al conjunto de la sociedad.

2.2. Privacidad y confidencialidad

Un punto que debe aparecer entre los principales problemas éticos de estas tecnologías de IA es la privacidad. La privacidad, en un sentido básico y limitado, puede entenderse como el derecho a limitar el acceso de otras personas al cuerpo o pensamientos propios. Ya que las nuevas tecnologías basadas en los datos tienen como materia prima datos sobre nosotros, sobre nuestros comportamientos, costumbres, preferencias o características, es claro que este tema es muy pertinente para nuestra discusión. La solución que muchas veces se propone es la de anonimizar estos datos. Sin embargo, esto no siempre es verdaderamente realizable, y no siempre puede eliminarse el rastro que crean los datos.

Algunos autores como Véliz han llegado a afirmar que los datos son una sustancia tóxica (2021, 44). Esta autora explica que, de manera similar por ejemplo al asbesto (un material de construcción ya en desuso), con los datos que se pueden hacer muchas cosas y facilitan enormemente nuestra vida en diferentes aspectos. Pero de manera análoga también al asbesto, según esta autora, la utilización de datos acaba intoxicando a todos los implicados en su uso (personas, instituciones, sociedades).

Muy relacionado con la privacidad, aunque sin ser exactamente lo mismo, estaría la confidencialidad. En este caso el problema no residiría en una limitación del acceso a la información, sino en la confianza que se asume que deberían tener dos o más actores distintos respecto de dicha información. La confidencialidad es una problemática que surge de manera más evidente en el trato entre médicos y pacientes o en la relación entre abogado y cliente

2.3. Transparencia y explicabilidad

En contraste con los puntos relativos a la privacidad y confidencialidad que se exponían justo antes, la ética de la IA también ha insistido en la necesidad de que los algoritmos sean transparentes (Burrell, 2016). Este es un problema todavía más específico de la ética algorítmica, y que tiene que ver con la naturaleza científica, matemática y tecnológicamente compleja de estos sistemas. El punto aquí está directamente relacionado con el problema de los sesgos que a continuación veremos. La idea es que sólo si sabemos cómo funciona un algoritmo, cómo llega a las conclusiones (al output) a las que llega, podremos solucionar las discriminaciones e injusticias que estos resultados algorítmicos pudieran presentar.

La exigencia de transparencia a veces toma una forma más concreta como una exigencia de explicabilidad. Los algoritmos, según esta lógica, no sólo deberían ser transparentes sino explicables –algo que el Reglamento Protección de Pagos de la Unión Europea conceptualizó como el “derecho a la explicación” (Rodríguez-Pardo del Castillo, 2018, 3)3. El corolario de esto es que no debería utilizarse ningún algoritmo que no pudiéramos explicar. Sin embargo, la inteligencia artificial, en algunos contextos concretos y específicos, ha alcanzado un desarrollo que las mentes humanas no pueden realmente alcanzar. Un ejemplo notorio es el ajedrez, donde los nuevos programas basados en Machine Learning han alcanzado un nivel de juego muy superior al humano. Dejar de beneficiarse, como por ejemplo hacen los ajedrecistas, de los avances proporcionados por la IA solo porque no podemos dar perfecta cuenta de cómo se han alcanzado esos avances, parece problemático.

2.4. Sesgos

El problema de los sesgos es uno de los problemas más discutidos en el ámbito de la ética de la IA. Los algoritmos pueden entenderse como buscadores de patrones. Estos patrones tienden a correlacionarse con variables sociales como la raza o el género (Jackson, 2018, 55-57; Ferguson, 2012; Popp, 2017). Como han mostrado diversos estudios, nuestros sesgos están irremediablemente insertos en los propios algoritmos, haciéndolos invisibles (O’Neil, 2016; Jackson, 2018, 56). Y, puesto que los desarrolladores de algoritmos, a su vez, son una población muy poco diversa, se ha argumentado que sus valores y creencias también quedan inscritos de manera inevitable en los algoritmos y los resultados que arrojan.

En ocasiones se ha argumentado que, para evitar estos sesgos, debemos eliminar de los datos todas las referencias a características que pudieran dar lugar a discriminaciones, como podría ser el género, la edad o la raza. El problema es que, incluso aunque en un principio esta información quede eliminada de manera explícita, muchas otras características sirven como proxies (Greenwald, 2017; Williams et al., 2018). Aunque no queramos tomar en cuenta la capacidad adquisitiva de una persona para valorar el precio de su seguro de vida, un algoritmo podría llegar a la conclusión de que los individuos cuya vivienda tiene un determinado código postal son más propensos a los accidentes o muerte prematura. De este modo, aunque “ceguemos” al algoritmo, este acaba desenterrando ciertas características por otras vías, dando como resultado una discriminación por nivel socio-económico –como por ejemplo muestran claramente Cathy O’Neil en su Weapons of Mass Destruction (2016) y Virginia Eubanks en su obra Automating Inequality (2017).

Algunos autores han argumentado que esta estrategia de “cegar” a los algoritmos, incluso aunque fuera viable, sería inadmisible desde un punto de vista ético (Kirkpatrick, 2016, 2). Zimmermann y Lee-Stronach justamente argumentan que dejar fuera de la consideración del algoritmo cuestiones como el género o la raza podría traer consigo que las condiciones de injusticia estructural presentes en la sociedad se mantengan inalteradas (Zimmermann and Lee-Stronach, 2021, 7). Según estos autores, más bien deberíamos visibilizar estas características para que el algoritmo pueda incorporar algún tipo de compensación o corrección a su cálculo que aminore las consecuencias de esta discriminación estructural y generalizada que, según estos autores, prevalece todavía en las sociedades contemporáneas.

2.5. Desaparición de puestos de trabajo

Un problema ampliamente abordado hoy en día es el problema de los puestos de trabajo humanos que la IA hace desaparecer o reduce de manera drástica. Si bien esta tendencia a sustituir personas por máquinas en aquellos puestos de trabajo automatizables se retrotrae a los primeros ingenios tecnológicos humanos, y en lo referente a los robots se remonta al menos 20 años atrás; las nuevas tecnologías de IA amenazan con llevar esto a un nuevo nivel. Particularmente, si el desarrollo de coches autónomos se materializara y generalizara, habría un sector laboral enorme como es el sector del transporte que vería desaparecer rápida y fulminantemente gran parte de sus puestos de trabajo. Podría decirse que este problema es principalmente político o de políticas públicas; pero también hay componente ético en tanto que podríamos decidir no desarrollar este tipo de tecnologías para que no se produjeran estos problemas laborales, lo cual también sería problemático por otros motivos. Otra propuesta, aparentemente más razonable en principio, sería implementar estas tecnologías de modo que el impacto en la pérdida de trabajos quedara reducido o amortiguado en alguna medida. En todo caso es un debate que está empezando a ganar presencia, pero que en los próximos años será cada vez más acuciante.

2.6. Falta de control

Sin embargo, ser conscientes de todos estos problemas referidos hasta ahora puede no ser suficiente para afrontarlos. Otro gran problema relacionado con la implantación de la IA en diferentes esferas de la vida y el uso de datos es el poco control que tenemos sobre estos datos y algoritmos. Pese a que la mayoría de normativas nacionales sobre estos temas exigen formularios de consentimiento para que cualquier empresa recolecte y use nuestros datos, lo cierto es que la mayoría de las veces los ciudadanos no se detienen en estos formularios, no tienen tiempo para leerlos y entenderlos, o simplemente no son capaces de captar realmente lo que está en juego. E incluso aunque esto sea así, la larga vida de los datos hace que difícilmente podamos ser conscientes de cómo nuestros datos serán utilizados en el lago plazo (Williams et al., 2018). Como explica Jackson, ya se han dado casos de datos que fueron recolectados inicialmente para fines estrictamente comerciales, que con el tiempo se han utilizado para seguimientos policiales, registros fronterizos, etc. (Jackson, 2018, 57).

2.7. Negligencia doxástica

Todas estas cuestiones confluyen en otro problema que es común al uso de diversas tecnologías. Me refiero a la “pereza”, negligencia o simplemente descuido con el uso de la tecnología. Está ampliamente documentado cómo el uso de tecnología en diversos ámbitos (como por ejemplo sucede con los pilotos de avión) puede hacernos dependientes de la misma y menos autónomos. En el caso de los algoritmos y la IA, un problema especialmente relevante es lo que Zimmermann and Lee-Stronach denominan como “Doxastic Negligence” (2021, 14). Según estos autores, “A is doxastically negligent if A, purely on the basis of an algorithmic output concerning B, adopts a belief about what kind of treatment of B is warranted” (Zimmermann and Lee-Stronach, 2021, 14). Uno de los graves problemas en nuestra relación con los algoritmos y la inteligencia artificial es el aura de certidumbre científica que acompaña a los resultados de estos sistemas. Esta confianza ciega en las máquinas nos lleva a asumir acríticamente los resultados de estos modelos matemáticos son objetivos y no necesitan interpretación. Como explica Jackson, “los algoritmos reducen la toma de decisiones a un número o una cifra. Esta confianza en los números da a entender que se está aplicando un enfoque objetivo e imparcial para la toma de decisiones, basado en el supuesto de que las cifras, a diferencia de las personas, no mienten”. (Jackson, 2018, 56). Pero esto sólo es una ilusión, pues tras esta aparente objetividad se esconde una gran complejidad, como estamos viendo.

3. RECONSIDERANDO EL CUIDADO EN NUESTRAS HERRAMIENTAS ALGORÍTMICAS

3.1. Introducción a la ética del cuidado. Ética feminista, Ortega, MacIntyre

Desde la segunda mitad del siglo XX, especialmente con la aparición de In a Different Voice, de Carol Gilligan (1982) y Caring, de Nel Noddings (1984), surge la conocida como ética del cuidado (Camps, 2013), también definida como éticas del cuidado en plural, precisamente para atender a diversidad de esta corriente, especialmente en su vertiente feminista (Sherwin 1992; de la Vieja et al. 2006). En gran sintonía con la propuesta narrativa-relacional (Baylis, 2012; 2017; Schechtman, 2014), estas éticas del cuidado consideran que nuestra naturaleza vulnerable y social es fundamental para entender al ser humano y su moralidad. Entienden que la aproximación individualista propia del canon occidental se revela insuficiente ante la constatación de que somos seres interdependientes, cuyas interacciones a nivel social, político e interpersonal influyen de manera constante y cambiante en quiénes somos. En el ámbito del cuidado, específicamente, vemos que siempre se está generando una doble identidad: la identidad de cuidador y la de persona cuidada, con todo lo que ello comporta en el plano moral (Domingo Moratalla, 2022). Las éticas del cuidado, en este sentido, han hecho una gran labor destacando el carácter relacional de nuestra vida humana.

Ortega no ha sido reivindicado como antecedente o precursor de las éticas del cuidado. Y si bien esta consideración probablemente sería exagerada, es justo reconocer toda la reflexión antropológica orteguiana que precisamente apunta a la condición vulnerable, necesitada, y por tanto intrínsecamente abierta a y dependiente del otro, que se puede encontrar en su obra. En innumerables pasajes podemos ver cómo Ortega define al ser humano como un ser carencial, vulnerable e indigente (Ortega, IX, 539); un ser del que llega a decir que “es esencialmente un menesteroso” (Ortega, VI, 622), o incluso “sustancial y activamente menesteroso” (Ortega, VIII, 611; Cf. Alonso, 2018).

Precisamente Ortega liga esta indigencia y menesterosidad a la particular naturaleza humana. En el texto orteguiano El mito del hombre allende la técnica (VI, 811-817) establece una conexión entre la peculiar animalidad humana y su condición inherentemente técnica. La razón por la que el hombre es considerado técnico radica en que, según Ortega, éste no pertenece al mundo natural. Esto, según el filósofo español, se explica mediante un fenómeno que denomina como “extrañamiento” (Cf. Alonso, 2019): “Esta situación doble, ser una parte de la naturaleza y sin embargo estar precisamente el hombre frente a ella, solo puede producirse mediante un extrañamiento” (VI 813). Este extrañamiento es esencialmente una “anomalía negativa”, es decir, una enfermedad que destruye la regulación natural de este ser (VI 813-814). A pesar de que los seres enfermos suelen perecer, el hombre es excepcional en el sentido de que, a pesar de haber contraído una enfermedad, persiste a pesar de su condición enfermiza. Este texto de madurez, no obstante, se vincula con las múltiples y variadas fórmulas que Ortega utiliza para describir este fenómeno antropológico: desde la menesterosidad de la vida humana, la cual para Ortega es “por naturaleza defectuosa, menesterosa, fallida” (IV 588), a la afirmación de que “ontológicamente, el hombre es un muñón” (IX 539). Todo ello muestra que el ser humano, menesteroso y necesitado en grado sumo, requiere del cuidado en un mismo nivel para vivir y sostenerse en la existencia.

En una línea similar, pero más recientemente y de manera más desarrollada, encontramos la postura de MacIntyre. El filósofo anglosajón, en su decisivo Animales racionales y dependientes (MacIntyre, 2001), vincula de manera explícita y clara la condición ética humana y su orientación hacia el cuidado con sus condicionantes biológico-naturales. Así, en las primeras páginas del mentado libro, MacIntyre admite que en Tras la virtud (1984) se equivocó “al suponer que era posible una ética independiente de la biología” ya que “ninguna explicación de los bienes, las normas y las virtudes que definen la vida moral será satisfactoria si no logra explicar cómo es posible la vida moral para seres constituidos biológicamente como el ser humano” (MacIntyre, 2001, 10). Esta biología que nos convierte en seres morales, esto es seres que cuidan y son cuidados, radica en nuestra enorme dependencia, superlativa en los primeros años, pero continuada a lo largo de nuestra vida humana (Cf. MacIntyre, 2001, 16-21). Ninguna otra especie exhibe esta necesidad de cuidado, y esta característica se convierte, al modo de ver de MacIntyre, en un núcleo antropológico y ético fundamental desde el que pensar nuestra realidad humana.

Apoyado en estas ideas de MacIntyre, pero desde otra disciplina distinta como es la primatología, de Waal apunta a la misma cuestión. Su tesis es que sólo mediante la ayuda y colaboración estrecha pudo el ser humano salir adelante y superar las dificultades planteadas por sus condicionamientos biológicos, especialmente los relacionados con nuestra complicada reproducción y crianza. Como expone de Waal, “nuestras sociedades están organizadas para aquello que los biólogos llaman «crianza cooperativa», esto es, una multitud de individuos que trabajan juntos en tareas que benefician al conjunto” (2010, pp. 132-133). Y en este punto una clave es eso que Ortega llamaba la menesterosidad del ser humano, que da lugar a una fuerte dependencia mutua (Cf. de Waal, 2010, p. 192). Nuestra condición de “seres inherentemente necesitados” (2010, p. 193), como de Waal comenta apoyándose en MacIntyre, producen sociedades entendidas como “sistemas de apoyo en los cuales la debilidad no tiene por qué significar la muerte” (2010, p. 193).

3.2. Hacia una ética del cuidado en contextos algorítmicos

Sin embargo, la ética de la IA y la mayoría de problemas éticos habitualmente destacados, como la transparencia, la explicabilidad o los sesgos, poco o nada tienen que ver con la ética del cuidado y los problemas que esta corriente filosófica pone de relieve. Algunos trabajos ya han empezado a esbozar esta conexión entre ética de la IA y cuidados, como el artículo de Núria Vallès-Peris, “Repensar la robótica y la inteligencia artificial desde la ética de los cuidados” (2021) o el de A. Domingo “Ética del cuidado en la era digital” (2022), junto a su obra de más amplio alcance, Homo Curans (2022). No obstante, aquí quisiera hacer una llamada de atención para que la ética de la IA empiece a tomar más en consideración algunos de los problemas centrales de la ética del cuidado, e incluso adopte su perspectiva o marco de referencia. Si bien no puede desarrollarse aquí esta propuesta de manera integral, sí cabe al menos dar algunas indicaciones sobre cómo se podría afrontar este cambio de enfoque.

El primer paso seguramente consista en reconocer cómo el enfoque del cuidado está ya inadvertidamente presente en varios de los temas antes destacados. La falta de control o negligencia doxástica antes aludidos, parten del supuesto de que hay comunidades o grupos de población que pueden ser discriminadas y eventualmente dañadas por las herramientas algorítmicas. El presupuesto relacional -la condición humana dependiente y abierta al otro- encuentra aquí un ejemplo significativo en cuanto a su falla o vulneración. En este sentido, las éticas del cuidado podrían dar algunas claves, o al menos mostrar el camino por donde encarar las soluciones a estos problemas éticos de la inteligencia artificial. El grave problema de los sesgos, por ejemplo, también podría ser aprehendido con provecho desde el paradigma de las éticas del cuidado. En último término, como apuntamos antes, los sesgos son inevitables, si bien sí pueden ser vigilados y su efecto paliado. En este caso concreto, la ética del cuidado podría aportar ideas sobre cómo proteger anticipadamente a aquellas poblaciones más vulnerables y susceptibles de ser afectadas por los sesgos de las herramientas algorítmicas (por ejemplo, introduciendo variables en los algoritmos que identificaran a la población de riesgo por el número de intentos de inicio de sesión, anticipando que este dato correlaciona típicamente con personas de avanzada edad); al tiempo que muestra cómo recuperarse de estas vulneraciones que en muchas ocasiones afectan al núcleo personal, identitario y afectivo de los individuos.

En esta misma línea, la preocupación por la responsabilidad es absolutamente central en la ética del cuidado. Sin embargo, la responsabilidad reivindicada por estas éticas del cuidado no tiene tanto que ver con la antes aludida accountability, con la idea de ser capaces de trazar una línea retrospectiva hacia el verdadero agente culpable. En las éticas del cuidado, la responsabilidad es, antes que ninguna otra cosa, responder ante el otro. Esta respuesta ante la solicitud bien podría ser un límite que difícilmente la IA puede alcanzar, y experiencias de este tipo podrían permitirnos entender mejor qué puede y qué no puede hacer la IA en su relación con los seres humanos. Por último, la preocupación por la transparencia y la explicabilidad podría reformularse, en términos de las éticas del cuidado, como una búsqueda de honestidad y hasta autenticidad. Si bien es difícil esperar estas cualidades eminentemente humanas en sistemas artificiales, sí cabe retrotraer esta preocupación al origen humano de estas herramientas, desde desarrolladores a políticos.

Uno de los ejes desde los que se puede ensayar la introducción de estas éticas del cuidado es la reivindicación de la noción de vulnerabilidad tal y como ha sido defendida por Mark Coeckelbergh (2011). Según este autor, la moral es un asunto eminentemente relacional, no ontológico. Desde este paradigma, el cuidado y su naturaleza relacional cobran una importancia central (Terrones Rodríguez, 2023, 187). En el ámbito de nuestra discusión, y siguiendo la reflexión del propio Coeckelberg (2015), un problema adicional que la ética del cuidado está en condiciones inmejorables para abordar, es el de la hiperagencia o exceso de control que estas nuevas tecnologías de IA nos brindan. En cierto modo, podría suceder que la IA nos presente la posibilidad (probablemente ficticia) de una vida humana más allá de la vulnerabilidad, de una vida donde todo esté calculado y previsto. Es muy posible que no estemos preparados para el gran conocimiento -y correlativamente poder- que estas tecnologías algorítmicas nos proporcionan sobre nuestros semejantes, y que nuestras relaciones humanas se vean, por ello, menoscabadas. La ética del cuidado tiene mucho que decir sobre este punto, y es un motivo más que suficiente para que esta corriente filosófica se ocupe decididamente de los problemas derivados de las nuevas tecnologías algorítmicas, como han empezado a hacer autores como Domingo Moratalla en su reciente Homo Curans (2022).

CONCLUSIÓN

Como hemos visto a lo largo del artículo, la implementación de las tecnologías de inteligencia artificial (IA) basadas en sistemas algorítmicos es una tendencia inevitable. No obstante, debemos ser muy conscientes de los importantes problemas éticos que la introducción de estos sistemas trae consigo. El problema ético principal de la inteligencia artificial tal y como hasta ahora la hemos conocido seguramente sea la prevención de sesgos y discriminaciones asociadas a estos sesgos. Como vimos, hay un nivel básico de discriminación que es muy difícil salvar. De igual manera con los sesgos. Los algoritmos buscan patrones, y en ese proceso arrojan conexiones improcedentes o generalizaciones erróneas. Discriminar ciertas características de los individuos, muchas veces delicadas desde una perspectiva ética, resulta claramente problemático; aun así, es muy difícil eliminar por completo estos sesgos y discriminaciones, de ahí las enormes dificultades que afrontan las herramientas algorítmicas.

El paradigma de la ética del cuidado no resuelve, en sentido estricto, el problema de los sesgos ni ningún otro de los problemas éticos de la IA expuestos en el artículo. Sin embargo, como se ha argumentado, esta propuesta filosófico-ética en torno al cuidado sí puede aportar una nueva mirada, rehumanizando en buena medida un contexto cuya pretensión de quedar fuera del ámbito humano podría ser más peligrosa de lo habitualmente pensado. Al poner el foco sobre el Big Data, las estadísticas y los casos más llamativos como el fraude de Cambridge Analytica (en el que gracias a la recopilación fraudulenta de datos por medio de Facebook se alteraron significativamente las elecciones estadounidenses de 2016), podríamos estar desatendiendo los problemas más cotidianos, y por tanto cercanos, de la mayoría de personas en relación a las herramientas algorítmicas.

De este modo, y aunque el texto no vaya más allá de esa llamada de atención, es importante que seamos conscientes de esta señal de alarma, que la atendamos y que comprendamos lo que está en juego en esta coyuntura. Si, como afirman Ortega, MacIntyre y muchas éticas del cuidado feministas, nuestra vulnerabilidad -y el cuidado e interdependencia que originan- constituye el núcleo de nuestra condición humana, la relativa desatención por parte de la ética de la IA hacia esta dimensión del cuidado debe ser subsanada cuanto antes.

BIBLIOGRAFÍA

Alonso, M. (2018). Reflexiones en torno a la idea del hombre como ser carencial: Ortega, Gehlen y Sloterdijk. Thémata. Revista de filosofía, 58, 119-136.

Alonso, M. (2019). El extrañamiento, una clave antropo-metafísica de la filosofía madura de Ortega. Contrastes. Revista Internacional de Filosofía, XXIV(1), 7-21.

Alonso, M. (2020). Ortega: A Philosophy of Technology Pioneer”. ANNALS of the University of Bucharest, Philosophy Series, LXIX, 1, 9 – 26.

Alonso, M. (2021). Ortega y la técnica. Madrid: Consejo Superior de Investigaciones científicas (CSIC) y Plaza y Valdés.

Baylis, F. (2012). The Self in Situ: A Relational Account of Personal Identity en J. Downie & J.J. Llewelyn (eds.). Being Relational: Reflections on Relational Theory and Health Law. Vancouver, BC: UBC Press, chapter 5, 109-131

Baylis, F. (2017). Still Gloria: personal identity and dementia. The international journal of feminist approaches to bioethics. 10(1), 210-224. https://doi.org/10.3138/ijfab.10.1.210

Bostrom, N. (2016). Superinteligencia: caminos, peligros, estrategias. Traducción e introducción de Marcos Alonso. Madrid: TEELL.

Broncano Rodríguez, F. (2009). La melancolía del ciborg. Herder, Barcelona.

Burrell, J. (2016). How the machine ‘thinks:’ Understanding opacity in machine learning algorithms. Big Data & Society 3(1), 1–12.

Bustamante Donas, J. (2011). La evolución del concepto de naturaleza en la filosofía de la tecnología. En Alonso Bedate, C., Lo natural, lo artificial y la cultura, (Ed.), Madrid, Universidad Pontificia Comillas: 15-32.

Coeckelbergh, M. (2011). Vulnerable Cyborgs: Learning to Live with our Dragons. Journal of Evolution and Technology, 22, 1, 1-9.

Coeckelbergh, M. (2015). The tragedy of the master: automation, vulnerability, and distance. Ethics Inf Technol 17, 219–229. https://doi.org/10.1007/s10676-015-9377-6

De Waal, F. (2010). El mono que llevamos dentro. Barcelona: Tusquets.

Domingo Moratalla, A. (2022). Homo Curans. El coraje de cuidar. Madrid: Encuentro.

Domingo Moratalla, A. (2022). Ética del cuidado en la era digital. Retos en el horizonte político de la Inteligencia Artificial. SCIO, Revista de Filosofía. recuperado de https://proyectoscio.ucv.es/articulos-filosoficos/etica-del-cuidado/

Echeverría Ezponda, J. (2000). Sobrenaturaleza y sociedad de la información: La Meditación de la técnica a finales del siglo XX. Revista de Occidente, 228(Ortega y la sociedad tecnológica), 19-32.

Eubanks, V. (2017). Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor. New York, NY: St. Martin’s Press.

European Commission. (2012). Regulation of the European Parliament and of the Council on the Protection of Individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation). Brussels: European Commission. Available at: http://ec.europa.eu/justice/data-protection/ document/review2012/com_2012_11_en.pdf.

Ferguson, A. G. (2012). Predictive policing and reasonable suspicion. The Emory Law Journal, 62, 259 ­325

Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford: OUP.

Gilligan, C. (1982). In a Different Voice: Psycological Theory and Women’s Development. Cambridge, MA: Harvard University Press

Greenwald, A. (2017). An Al stereotype catcher. Science, 356(6334), 133­134.

Jackson, J. R. (2018). “Algorithmic Bias”. Journal of Leadership, Accountability and Ethics, 15(4), 55-65.

Kirkpatrick, K. (2016). Battling Algorithmic Bias. Communications of the ACM 59, 10(2016), 16.

Kwon, H. E., So, H., Han, S. P., & Oh, W. (2016). Excessive Dependence on Mobile Social Apps: A Rational Addiction Perspective. Information Systems Research, 27(4), 919–939. https://doi.org/10.1287/isre.2016.0658

MacIntyre, A. (1984). Tras la virtud. Crítica: Barcelona.

MacIntyre, A. (2001). Animales racionales y dependientes. Por qué los humanos necesitamos las virtudes. Paidós; Barcelona.

Mittelstadt, B.D. & Floridi, L. (2016). The ethics of big data: Current and foreseeable issues in biomedical contexts. Science and Engineering Ethics 22(2), 303–341.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society 3(2), 205395171667967.

Mumford, L. El mito de la máquina. La Rioja, Pepitas de calabaza, 2013.

Noddings, N. (1984). Caring: A Relational Approach to Ethics and Moral Education. University of California Press.

xgO’Neil, C. Weapons of Mass Destruction: How Big Data Increases Inequality and Threatens Democracy. U.S.: Penguin Books, 2016.

Ortega y Gasset, J. (2004-2010). Obras completas. Tomos I-X. Madrid: Taurus.

Popp, T. (2017). Black box justice. The Pennsylvania Gazette, 38­47, 2017.

Rodríguez-Pardo del Castillo, J. M. (2018). El sesgo ético en los algoritmos de inteligencia artificial aplicados al seguro. https://app.mapfre.com/documentacion/en/catalogo_imagenes/grupo.do?path=1097479

Schechtman, M. (2014). Staying Alive: Personal Identity, Practical Concerns, and the Unity of a Life. Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780199684878.001.0001

Sherwin, S. (1992). No Longer Patient: Feminist Ethics and Health Care. Philadelphia: Temple

Terrones Rodríguez, A. L. (2023). Ética de la responsabilidad y cuidado en un horizonte de inteligencia artificial sostenible. SCIO. Revista de Filosofía, 25.

Vallès-Peris, N. (2021). Repensar la robótica y la inteligencia artificial desde la ética de los cuidados. Teknokultura: Revista de Cultura Digital y Movimientos Sociales, 18(2), (Ejemplar dedicado a: Sociedad digital y salud), págs. 137-146.

Vayena, E., Blasimme, A., and Cohen, I. G. (2018). Machine Learning in Medicine: Addressing Ethical Challenges. PLoS Medicine 15(11), E1002689.

Véliz, C. (2021). Privacy is power: Why and how you should take back control of your data. London.

Vieja de la, M. T. et al. (eds.). (2006). Bioética y Feminismo. Universidad de Salamanca

Williams, B. A., Brooks, C. R., & Shmargad, Y. (2018). How algorithms discriminate based on data they lack: Challenges, solutions and policy implications. Journal of lnformation Policy, 8, 78 ­ 115. https://www.jstor.org/stable/10.5325/jinfopoli.8.2018.0078

Zimmermann, A. & Lee-Stronach, C. (2021). Proceed with Caution. Canadian Journal of Philosophy, 1–20. https://doi.org/10.1017/can.2021.17

1Este artículo se enmarca en el proyecto “Cuidados e identidad personal. La importancia de la atención a la identidad personal en los cuidados” (2023) de la Fundación Víctor Grifols i Lucas. Asimismo, se enmarca dentro del proyecto de investigación “Inteligencia artificial y autonomía humana. Hacia una ética para la protección y mejora de la autonomía en sistemas recomendadores, robótica social y realidad virtual” (AUTAI), Francisco Lara y Blanca Rodríguez (IPs), referencia: PID2022-137953OB-I00; financiado por MCIN/AEI/10.13039/501100011033/ y por FEDER Una manera de hacer Europa.

2Universidad Complutense de Madrid, Facultad de Medicina, Departamento de Salud Pública y Materno-Infantil. Pl. de Ramón y Cajal, s/n, Moncloa - Aravaca, 28040 Madrid. marcos.alonso@ucm.es

3El artículo en cuestión es el Artículo 13, EU GDPR, “Information to be provided where personal data are collected from the data subject”.