Roboética:
Artículo de Pilar Dellunde, publicado en el número 2 de la Revista K
Fotografías: Vicente Paredes.
La International Federation of Robotics recopila datos estadísticos anuales sobre el mercado mundial de la robótica, publicados en el informe anual “World Robotics”. En el informe de 2024, basado en una muestra de 298 compañías, se observa un crecimiento sostenido en el número de robots de servicio (robots no industriales que no son productivos) en diversas aplicaciones. Esto incluye dispositivos robóticos controlados manualmente con autonomía limitada o sin ella. Entre los robots de servicio se encuentran los robots de servicio profesional (más de 205.000 unidades, incluyendo AMRs, los robots móviles autónomos), los robots médicos (más de 6.200 unidades), y los robots de atención al cliente (más de 4,1 millones de unidades nuevas).
Los robots de servicio para uso del consumidor no requieren formación específica. Algunos ejemplos son los robots de limpieza doméstica, las sillas de ruedas automatizadas y los robots de interacción social.
Por el contrario, los robots de servicio profesional requieren operadores capacitados profesionalmente; aquí incluiríamos robots de limpieza para lugares públicos, robots de reparto, robots de extinción de incendios, robots de rehabilitación y robots de cirugía en hospitales. Algunos de estos robots, como los de interacción social y educación, ganaron importancia durante la pandemia de Covid-19 y las medidas de distanciamiento social. Otros están diseñados para cuidados en casa, proporcionando asistencia para la movilidad y la manipulación de objetos.
Aunque la robótica no está ampliamente introducida en el cuidado de las personas, los sistemas de IA sí están presentes en nuestra vida cotidiana. Los encontramos en recomendadores de música o cine, buscadores de Internet y asistentes virtuales en nuestros móviles.
En noviembre de 2022, OpenAI lanzó ChatGPT, una IA generativa que permite realizar todo tipo de tareas relacionadas con el lenguaje (traducir, corregir textos, conversar o escribir textos nuevos). Este sistema alcanzó un millón de usuarios en solo cinco días. ¿Cómo interpretamos todos estos datos? Hemos escuchado discursos extremos, desde los más catastrofistas hasta los más ingenuos, sobre el crecimiento de estas tecnologías. Algunos sostienen la inevitabilidad de la sustitución humana por IAs. ¿Cómo podemos recuperar un debate sereno sobre nuestra situación actual? Necesitamos primero algunos datos, esta vez sobre los humanos.
Según Worldometer, que proporciona estadísticas mundiales en tiempo real, en el momento de escribir este artículo la población mundial es de 8.203 millones de personas, lo que plantea un problema de sobrepoblación. A medida que la generación de los boomers envejece, se puede duplicar el número de personas entre 65 y 80 años, agravando la falta de profesionales y plazas residenciales en este sector. Los sistemas de IA se proponen como una solución a la falta de profesionales, pero, con los datos actuales de desempleo y sobrepoblación, ¿es esta una solución razonable? Los sistemas de IA están entrando en ámbitos genuinamente humanos: el juego, el lenguaje, la música.
Ciencia Ficción en la Reflexión Ética sobre los Sistemas de IA
Para situar una reflexión ética sobre estos sistemas, vamos a hacer uso de la ciencia ficción. La filósofa Martha Nussbaum, en su libro de 1990 Love’s Knowledge: Essays on Philosophy and Literature, afirmaba que “La lectura de ficción nos sitúa con frecuencia en una posición que es a la vez parecida y diferente de la posición que ocupamos en la vida; parecida, en el sentido de que estamos involucrados emocionalmente con los personajes, activos con ellos y conscientes de nuestra incompletitud; diferente, en el sentido de que estamos libres de las fuentes de distorsión que con frecuencia impiden nuestras deliberaciones en la vida real ”.
En esta línea, recomiendo la lectura de una obra de ciencia ficción como punto de partida para esta reflexión ética: Today, I’m Paul, de Martin L. Shoemaker. Su comienzo es el que sigue:
“Mildred se reclina en la cama. Es una cama avanzada para cuidados en el hogar, completamente ajustable y con monitores integrados. La familia de Mildred no escatimó en gastos (ni en la cama ni en otros dispositivos de cuidado, como yo). Su cabecera es casi horizontal y está orientada hacia la ventana. Solo puede vislumbrar la puerta con el rabillo del ojo, pero no necesita ver para imaginar que ve. Esta mañana, se imagina a Paul, así que soy yo. Sintetizar la voz de Paul es la parte más fácil, gracias a los altavoces dinámicos multimodales de mi garganta. «Buenos días, mamá. Te he traído unas flores». Siempre traigo flores. Mildred las aprecia, sin importar a quién esté emulando. Las flores la hacen sonreír durante el 87 % de mis «visitas»”.
En este relato, Mildred, una anciana con demencia, pasa sus días siendo atendida por un androide de cuidados muy avanzado. Como el androide es capaz de emular física y emocionalmente a las personas, Mildred no se da cuenta de que quienes la visitan no son realmente sus seres queridos. Su familia ha comprado este androide que está equipado con tecnología que le permite emular a una persona, tanto física como emocionalmente, basándose en los datos proporcionados sobre ella.
Aunque la introducción de la robótica no ha alcanzado aún el nivel descrito en la novela, se han hecho avances significativos en esta dirección. Ejemplos recientes reales de aplicación de estas tecnologías son las pruebas piloto Etxean Bai de cuidados en domicilio a personas dependientes, o el proyecto Singulars de la Generalitat de Catalunya de introducción de robots en residencias de personas mayores.
Sin embargo, el objetivo de esta reflexión no es el estado del arte de la robótica asistencial, sino los dilemas éticos que surgen en este tipo de contextos. La situación de Mildred plantea preguntas vitales sobre las relaciones de cuidado: ¿qué cuenta como cuidado y qué está en juego cuando decidimos subcontratarlo a un sistema de IA?
La Ética del Cuidado en la Reflexión sobre los Sistemas de IA
La ética del cuidado (Care-Ethics) nos proporciona un marco ético para nuestra reflexión. Tiene sus raíces en los trabajos de C. Gilligan y N. Noddings a principios de los años 1980, y algunas de sus pensadoras más influyentes son A. Baier, V. Held, E. Feder Kittay, S. Ruddick y J. Tronto.
En The Ethics of Care (2006), V. Held demuestra la relevancia de la ética del cuidado para las cuestiones políticas, sociales e internacionales, conceptualizando el cuidado como un conjunto de prácticas y valores. En Caring Democracy: Markets, Equality, and Justice (2013), Joan Tronto define el cuidado como “una actividad de la especie que incluye todo lo que hacemos para mantener, continuar y reparar nuestro «mundo» para que podamos vivir en él lo mejor posible. Ese mundo incluye nuestros cuerpos, nosotros mismos y nuestro entorno, todo lo cual tratamos de entrelazar en una red compleja que sustenta la vida”.
La ética del cuidado se ha desarrollado a lo largo de los años, convirtiéndose en una teoría política y promoviendo un movimiento social destinado a una comprensión más amplia y a dar apoyo público a las actividades de cuidado en toda su amplitud y variedad. Para reflexionar sobre el impacto de los sistemas de IA en las relaciones de cuidado, este marco ético nos permite hacer una primera aproximación, conceptualizando estos sistemas no como herramientas, sino como agentes. La noción de agente es central en la subdisciplina de la informática que es la Inteligencia Artificial, donde un agente se caracteriza porque percibe su entorno mediante sensores y actúa sobre este mediante actuadores. No incluye en su definición rasgos definitorios importantes de la agencia humana, como la intencionalidad. Sin embargo, precisamente por ser agentes y por tener diferentes grados de autonomía, se presentan nuevos retos éticos para su utilización en el ámbito del cuidado.
Una primera cuestión ética está relacionada con la adicción a estas relaciones en sustitución del cuidado humano, lo que puede llevar al aislamiento de las personas. Una segunda cuestión se refiere a la privacidad. Más allá de las normativas existentes sobre protección de datos personales, en una conversación con estas IA se proporciona una gran cantidad de datos en una relación de confianza con los agentes artificiales, datos que no se darían en otras circunstancias. La autonomía de las personas también se ve afectada, ya que estos sistemas, basados en el reconocimiento de patrones, nos proporcionan información sobre las decisiones a tomar que no es suficientemente plural y, debido a la naturaleza de la tecnología, no pueden dar explicaciones, reduciendo nuestra posibilidad de participar en el proceso de toma de decisiones.
Muchos de los sistemas de IA no son transparentes, lo que genera desconfianza y problemas a la hora de atribuir responsabilidades. También existen problemas con posibles sesgos en los sistemas, especialmente relevantes si se utilizan por parte de instituciones públicas para distribuir los recursos destinados al cuidado de la población, lo que podría tener efectos discriminatorios.
Para regular estos aspectos y defender los derechos fundamentales, en agosto de 2024 entró en vigor el reglamento europeo (AI Act). Este reglamento clasifica los sistemas de IA en cuatro niveles de riesgo: mínimo (incluye sistemas como filtros de spam y videojuegos, que no están sujetos a obligaciones específicas), de transparencia (sistemas como chatbots deben informar claramente a los usuarios que están interactuando con una máquina), riesgo alto (incluye sistemas de IA utilizados en áreas críticas como la salud y la contratación, que deben cumplir con requisitos estrictos de seguridad, transparencia y supervisión humana) y finalmente, riesgos inaceptables (sistemas que representan una amenaza para los derechos fundamentales, como la puntuación social, la vigilancia masiva y la manipulación subliminal, que están prohibidos). Hasta abril de 2025, distingos grupos de expertos/ as trabajaremos en la redacción del Código de Prácticas de la IA, cuyo objetivo es facilitar la aplicación adecuada de la Ley de IA, especialmente para los modelos de propósito general, como algunas IA generativas.
En los próximos años, la aplicación de esta normativa y los nuevos avances en los sistemas de IA centrarán nuestro debate ético. ¿Pero, debería ser así? Mi propuesta es que resituemos el debate, y que éste sea de naturaleza política y económica, enfocándonos en valorar el trabajo y eliminar la precariedad laboral del sector del cuidado y en cómo los nuevos sistemas de IA podrían mejorar las condiciones laborales, pero en ningún caso sustituirlas. Como familiares ahora y en un futuro próximo, como usuarios de estos sistemas de IA para nuestro cuidado, ¿qué valores queremos promover en nuestras relaciones sociales? Una IA basada en un modelo probabilístico no va a tomar esta decisión por nosotros, la responsabilidad es enteramente nuestra.