SCIO: Revista de Filosofía

Buscador

¿QUIÉN CUIDA EL JARDÍN?: CUIDADO HUMANIZADOR DE LOS CIMIENTOS INDIVIDUALES Y SOCIALES ANTE EL IMPACTO DE LAS TECNOLOGÍAS DIGITALES

WHO CARES FOR THE GARDEN?: HUMANISING CARE OF INDIVIDUAL AND SOCIAL FOUNDATIONS DUE TO THE IMPACT OF DIGITAL TECHNOLOGIES

Juan-Pablo Peñarrubia Carrión1

Fechas de recepción y aceptación: 21 de marzo y 25 de junio de 2024

DOI: https://doi.org/10.46583/scio_2024.26.1155

Resumen: En el dominio del cuidado y la tecnología se realizan principalmente investigaciones sobre la aplicación de la tecnología al cuidado en campos o afectados específicos. En este artículo se aborda una perspectiva diferente analizando algunos efectos colaterales de las tecnologías digitales que debilitan elementos considerados sistémicos a nivel individual y social como: la privacidad y la autonomía personal; la función social de los medios de comunicación; la dinámica social deliberativa; la necesidad de orientar la regulación de las tecnologías digitales al impacto personal y social; la capacidad de atención y reflexión de las personas.

Se propone el nuevo ámbito del cuidado de los cimientos sistémicos individuales y sociales ante el impacto de las tecnologías digitales con objeto de preservar su esencia humanizadora y la sostenibilidad de la sociedad abierta democrática que conocemos. La exigencia de unas condiciones mínimas en la sociedad digital en construcción que permitan a cada persona elegir su proyecto de vida buena.

Palabras clave: cuidado, impacto, tecnologías digitales, regulación, sociedad democrática, atención, inteligencia artificial, sociedad digital.

Abstract: In the domain of care and technology, research is mainly carried out on the application of technology to care in specific fields or affected people. This article takes a different perspective by analysing some collateral effects of digital technologies that debilitate elements considered systemic at the individual and social level such as: privacy and personal autonomy; the social function of the communication media; deliberative social processes; the need to orient the regulation of digital technologies towards personal and social impact; people’s capacity for attention and reflection.

A new scope is proposed related to care for individual and social systemic foundations duu to the impact of digital technologies in order to preserve their humanising essence and the sustainability of the open democratic society as we know it. The requirement of minimum conditions in the digital society under construction that allow each person to choose a good life project.

Keywords: care, impact, digital technologies, regulation, democratic society, attention, artificial intelligence, digital society.

1. INTRODUCCIÓN

Las investigaciones y contribuciones sobre el cuidado y la tecnología versan generalmente sobre campos o afectados específicos (salud, enfermería, psicología, mayores, infancia, personas dependientes…), analizando cómo la tecnología brinda nuevas posibilidades para mejorar el cuidado o crea potenciales problemáticas como consecuencia de su utilización. Pero como hemos comprobado en las últimas décadas la capacidad pervasiva de las tecnologías informáticas ha impactado no solo todos los campos del cuidado, sino todas las esferas de actividad humana. De hecho, la combinación y retroalimentación de los productos, servicios y tecnologías informáticas ha desbordado los cimientos sistémicos individuales y sociales. A nivel individual en las acciones, relaciones, valores…e incluso la identidad personal. A nivel social en las actividades, comunicación, propiedad intelectual, participación política, dinámicas sociales… e incluso el modo de entender la democracia, el derecho y la vida en común.

El impacto es tal que ha dado nombre a la sociedad en la que vivimos: la sociedad de la información y el conocimiento, rebautizada últimamente como sociedad digital. Es manifiesta la necesidad de evaluación de las tecnologías informáticas, reclamadas para la tecnología en general en la tradición ética y filosófica (Goulet, 1978). En particular, en el ámbito digital, su incidencia en la transformación de toda actividad humana e incluso la propia cosmovisión (Castells, 2000; Domingo, 2021).

En este contexto, en las últimas décadas se ha focalizado una gran atención hacia el funcionamiento y nuevas capacidades de las tecnologías digitales, y en el ámbito que nos ocupa, en su aplicación al cuidado en campos o afectados específicos. Pero ¿Se está prestando la atención necesaria al cuidado de los cimientos sistémicos que sostienen nuestro comportamiento y nuestra evolución como personas y como sociedad? ¿Se está analizando el cuidado a este nivel de abstracción del impacto sistémico y simultáneo de las tecnologías digitales a nivel individual y social?

El objetivo y la tesis de este artículo es señalar que en el ámbito del cuidado y la tecnología es muy relevante la conciencia y necesidad de cuidar los cimientos sistémicos individuales y sociales para preservar su esencia humanizadora y la sostenibilidad de las sociedades abiertas2, en particular por el impacto de las tecnologías digitales. Más aún, se aborda la importancia central de este cuidado, pues dichos cimientos no solo apoyan el conjunto de la acción individual y social actuales, sino que deben sostener su evolución ante los cambios para sustentar la acción individual y social del futuro. Únicamente materializando este cuidado puede evitarse, o al menos mitigarse, la amenaza de cosificación y deshumanización individual y social por el impacto de las tecnologías digitales. En definitiva, el reto es determinar cómo poner las tecnologías informáticas al servicio de la vida buena (Stolterman et al., 2004) Únicamente tomando conciencia y materializando un cuidado de los cimientos sistémicos individuales y sociales podrá asegurarse la sostenibilidad de una civilización humanizada.

Recuerda Adela Cortina que, aunque los modelos de vida buena no pueden imponerse, si es es socialmente exigible crear unas condiciones mínimas que permitan a cada persona elegir su proyecto de vida buena (Cortina, 2011), es preciso analizar dichas condiciones en el contexto de la sociedad digital.

Para ello, en primer lugar, se aborda el análisis de la cuestión. A continuación, se presenta y estudia la necesidad de cuidado de algunos elementos sistémicos individuales y sociales que se consideran relevantes para ilustrar la propuesta, discutiendo sus implicaciones y presentando ejemplos específicos. Y finalmente se presentan algunas conclusiones respecto a esta dimensión del cuidado ante el impacto de las tecnologías digitales.

2. ¿QUIÉN CUIDA EL JARDÍN?: LA NECESIDAD DE CUIDADO DE LOS CIMIENTOS SISTÉMICOS INDIVIDUALES Y SOCIALES ANTE EL IMPACTO DE LAS TECNOLOGÍAS DIGITALES

Uno puede cuidar una o más plantas, en maceta o en el terreno. El cuidado individual específico puede ir bien, pero la cosa cambia cuando las mismas plantas se ubican en un jardín. El jardín materializa el entorno de cada planta, y por ello es un factor de influencia esencial para su crecimiento y plenitud. Es decir, que para el cuidado de la planta ya no es suficiente con su cuidado individualizado, sino que tiene dos dimensiones: los cuidados específicos y los cuidados del jardín, que pueden condicionar igualmente su evolución. Un jardín cuidado facilita y potencia la plenitud de todas las plantas que en él se ubican. Si nadie se ocupa del jardín se hace más difícil que una planta concreta crezca y florezca, pues es necesario también el cuidado del entorno: plantas vecinas, heladas, plagas, ser aplastada por la rama de un árbol que debió ser podada, etc.

Podría decirse que una sociedad es como un jardín, un entorno, donde las personas crecen y en la medida que pueden florecen y fructifican. Y en mayor grado que las plantas en el jardín, la configuración de la sociedad influye poderosamente en la facilidad y capacidades de florecimiento de las personas. Ciertamente hay actores que influyen, y en cierta medida cuidan, algunas zonas o aspectos del jardín/sociedad, por ejemplo, los gobiernos, la regulación legal, las administraciones, etc. Pero, la historia muestra que suele haber cuestiones de las que nadie se ocupa, y sólo cuando la realidad lleva a una situación de emergencia se toma conciencia de la necesidad de su cuidado, o en términos organizacionales de la necesidad de su gestión. Así ocurrió, por ejemplo, con las condiciones laborales al hilo de la revolución industrial, o con la educación universal en la modernidad… Así está ocurriendo con los movimientos migratorios actualmente, aunque todavía sin una solución clara, con una evidente conciencia de cuestión esencial para la sostenibilidad de la sociedad global presente y futura. Y algo similar está sucediendo con las bases de nuestra actividad y comportamiento individual y colectivo: las estructuras, valores e inercias de la sociedad occidental de la segunda mitad del siglo XX en las que se asienta la sociedad actual han sido desbordados por el impacto de las tecnologías digitales y se han transformado a gran velocidad sin una dirección conocida… Este proceso está ocurriendo de manera errática, de muy diversos modos, y en diferente grado en los diversos colectivos, roles o actividades humanas: infancia, adolescentes, mayores, trabajadores, emprendedores, directivos, estudiantes, comunicadores, políticos, empleados públicos, hijos, progenitores… El resultado es un proceso a la vez de construcción y a la vez de desguace inducido por innovaciones externas, por las dinámicas directas a las que dan lugar, y por los efectos indirectos y de retroalimentación entre todo el conjunto. Todo ello ejecutado a ciegas y sin una dirección específica. Como se atribuye al insigne Séneca: Cuando no sabes hacia donde navegas, ningún viento es favorable.

Se trata pues de conciliar la innovación tecnológica con la naturaleza humana. Ortega ha sido uno de los autores en confrontar estos términos. Por un lado, considerando la técnica como un aspecto característico del ser humano, que proporciona además una capacidad de cambio ilimitado (Ortega, 1947, p. 361), pero indicando que este potencial sin límites desorienta al hombre. Ortega señala el peligro de hacer de la técnica una suerte de religión, pues se trata, en última instancia, de una forma hueca que no puede determinar el contenido de la vida. Dirá Ortega que nuestra época (para Ortega la de mediados del siglo XX, para nosotros la actual), es a la vez la más técnica y la más vacía de la historia humana. (Ortega, 1947, p. 366) Una lectura similar pero aún más taxativa es planteada por Jacques Maritain que señalará la necesidad de comprender que hay que escoger entre la idea de una civilización esencialmente industrial y la de una civilización esencialmente humana, para la cual no sea realmente la industria más que un instrumento (Maritain, 1966, p.147).

También en su análisis del desarrollo humano Denis Goulet evaluará la incidencia de la tecnología, proponiendo la “evaluación de la tecnología” (technology assessment) como herramienta fundamental. Goulet cree que la alarma que suscita la evolución tecnológica en el ámbito intelectual es debida a que crea y destruye valores simultáneamente, sugiriendo que la cuestión es cómo aprovechar la tecnología para fines humanos y no para deshumanizar. Goulet concluirá que lo trascendente para el desarrollo humano es cómo poner la tecnología al servicio de valores verdaderamente humanos. (Goulet, 1983).

La sociedad del siglo XX vivida por Ortega o Maritain no tenía el desarrollo de las tecnologías digitales actuales. En el caso de Goulet, sí asistió al progresivo impacto de la informática y en general de las tecnologías de la información y las comunicaciones (inclyuendo la televisión y los medios de comunicación de masas). No obstante, las reflexiones de estos autores sobre la tecnología en su conjunto son perfectamente válidas en una lectura hermenéutica que incluya el ámbito digital, que, si acaso exacerba aún más, si cabe, las preocupaciones que los autores apuntaban. No obstante, existen abundantes reflexiones actualizadas a la sociedad de la información (Carr, 2008; Castells, 2000; Cortina, 2011; Domingo, 2021; Floridi, 2021; Veliz 2021), entre otras, como analizaremos a continuación.

Por otro lado, sería ingenuo no ser consciente de la importancia económica y de influencia que tienen hoy en día las tecnologías informáticas. La evidencia muestra el peso creciente de los llamados “gigantes tecnológicos” en las listas de las mayores empresas nacionales o globales. Igualmente es notoria la importancia estratégica de las tecnologías informáticas para influir y para tener una cierta “autonomía estratégica” (No hay más que recordar las tensiones durante la pandemia por la escasez de chips motivada por los problemas logísticos, o los recurrentes sucesos de ataques informáticos, que han hecho de la denominada ciberguerra el mecanismo más frecuente de intervención malintencionada de un estado en otro…) Constatados los grandes intereses, no obstante se antoja exagerado pensar en una intencionalidad, “mano negra” o lobby conspirativo en la autoría intelectual de los impactos negativos de las tecnologías digitales. Cuando uno ha vivido profesionalmente en primera persona la evolución informática desde el ordenador personal, recuerda todo lo aparecido y desaparecido, con sus pros y contras. Cuando el relato empresarial era la autorregulación frente a la necesidad de regulación legal, era evidentemente interesado pensando en evitar restricciones, pero sin conciencia de los efectos colaterales y peligros que se han ido comprobando con los años. La autorregulación ha quedado desbordada (Floridi, 2021) y desde el propio sector se ha reconocido la necesidad de una regulación adecuada, que no tiene por qué ser ni restrictiva de la innovación ni amplia hasta lo inviable.

No es exagerado afirmar que la innovación informática ha generado una transformación social errática. Esto no tendría por qué suponer un problema. De hecho, tampoco es exagerado afirmar que las transformaciones sociales motivadas por avances tecnológicos siempre han sido erráticas a lo largo de la historia (del coche de caballos, a la máquina de vapor, y luego al coche de combustión, y después al coche eléctrico…). La diferencia con la metamorfosis a la que estamos asistiendo desde hace unas décadas es la velocidad y la intensidad. Por si fuera poco, a veces amplificadas por otros elementos de contorno entre los que cabe destacar la globalización. Antes los cambios sociales sucedían de modo paulatino, de hecho, materializándose y observándose en paralelo a las sucesivas generaciones3. Ello inducía una cierta dinámica asimilada de cambio social correlacionado con el cambio generacional. Es decir, el propio ciclo vital de las personas, y en cierto grado la progresiva asimilación de las innovaciones tecnológicas precisamente por las nuevas generaciones. Hoy por hoy, podemos aseverar que nunca antes hubo tantos cambios tecnológicos de alto impacto, en tan corto espacio de tiempo. En particular en el ámbito informático: los avances e innovaciones se suceden y se retroalimentan entre sí incesantemente, y tanto la psicología humana como las estructuras y mecanismos sociales son incapaces de asimilar, conciliar y lo que es más importante, dirigir mínimamente, su utilización positiva y humanizadora. La acción transformadora se ha desalineado con el ritmo generacional. En la actualidad las personas se ven impactadas y forzadas a cambiar las bases de su acción y su personalidad. Esto sucede varias veces en su propia vida (intrageneracional), e incluso con una cierta continuidad, de modo que la realidad pareciera demandar el cambio continuado de las bases de la acción y personalidad individuales, y con ello las actividades y dinámicas sociales. ¿Sería esta una realidad viable y sostenible para la humanidad?

De cualquier modo, esta diferencia ha generado un fenómeno de cambio errático e incesante de los mencionados cimientos sistémicos individuales y sociales. Las disfunciones crecientes han pasado de la preocupación a la alarma, e incluso a la urgencia.

A esta circunstancia se une el gran reto de la ética aplicada en todos los ámbitos de actividad y en particular en la tecnología: pasar de los objetivos deseables y las palabras a las acciones de materialización de la ética y la responsabilidad social en la toma de decisiones del día a día. En especial a nivel de las empresas y organizaciones en general, del sector privado y público. (DIRSE-Beethik, 2021; Morley et al., 2019)

Proponemos que el florecimiento de las personas en la sociedad digital requiere necesariamente el cuidado de los cimientos sistémicos individuales y sociales para preservar su esencia humanizadora ante el impacto de las tecnologías digitales. El uso de la informática para el florecimiento de las personas (Stolterman et al., 2004). De lo contrario el jardín heredado que es nuestra sociedad abierta de libertades corre el peligro de convertirse en un jardín de vegetales sin flores ni frutos.

3. ANÁLISIS DE ALGUNOS ELEMENTOS SISTÉMICOS INDIVIDUALES Y SOCIALES ANTE EL IMPACTO DE LAS TECNOLOGÍAS DIGITALES

A continuación, se analiza la necesidad de cuidado de un conjunto de elementos sistémicos individuales y sociales que se consideran ilustrativos y especialmente relevantes por su transformación ante las tecnologías digitales, y se discuten sus implicaciones de humanización y florecimiento frente a deshumanización y cosificación.

3.1. Autonomía personal y privacidad

El elemento esencial para constituir y sostener una sociedad abierta democrática es la autonomía personal, entendida como la capacidad de un individuo para decidir libremente que pensar y que acciones realizar. La autonomía personal alcanza todas las dimensiones del pensamiento y la personalidad (ideológicas, religiosas, económicas, afectivas…), así como todas las potenciales actividades vitales (dedicación profesional, aficiones, adquisición de bienes, tener descendencia…)

Uno de los principales impactos de las tecnologías digitales es la privacidad, entendida como la parcela de datos, pensamiento y acción personal que se desea mantener en privado. En un primer momento la preocupación esencial fueron los datos personales, es decir el conocimiento de informaciones concretas referentes a la persona, y ello llevó a iniciativas de regulación en materia de protección de datos personales. Posteriormente, a una concepción algo más amplia sobre el tratamiento de datos personales y la libre circulación de estos datos. Cabe destacar la regulación europea al respecto, que, si bien comienza a incidir en una orientación a la privacidad, sigue adoptando una visión orientada en primera instancia al dato en sí y no a la privacidad como valor esencial en una sociedad abierta.

La pérdida de privacidad puede incidir en muy diversos aspectos personales y sociales. En nuestro análisis interesa especialmente el estudio sobre cómo y por qué la pérdida de privacidad por el impacto de las tecnologías digitales debilita las bases de nuestra sociedad abierta democrática, con especial mención del trabajo de Carissa Véliz.

Véliz propone (Véliz, 2021) que la repercusión de la pérdida de privacidad por el impacto de las tecnologías digitales va mucho más allá de los incidentes puntuales que nos pueden perjudicar (spam, uso fraudulento de una tarjeta de crédito, cargo fraudulento en cuenta bancaria, suplantación digital, estafas fundadas en el entorno digital, tráfico de datos personales…). La autora propone una relación directa entre privacidad y autonomía personal, argumentando que la acción incesante de las tecnologías digitales basada en el conocimiento de nuestra esfera privada genera una presión sostenida que incide en la acción individual libre, es decir, que incide en la autonomía personal. Y por ello, en un elemento esencial para una sociedad abierta, ya que socavarlo es una forma de condicionamiento hacia mecanismos de control social con tintes totalitarios. En la terminología orteguiana podría decirse que la pretendida “personalización” de los productos y servicios informáticos basada en el acceso a la privacidad genera una incesante actividad de “alteración” y dificulta el “ensimismamiento”, o lo que es lo mismo la acción libre. De hecho, es relevante recordar que incluso algo tan esencial como el acceso a la información en internet se personaliza por los buscadores, de modo que el resultado de una misma búsqueda, y por tanto la percepción de la realidad, es diferente para cada individuo. Así pues, se produce un doble sesgo en el acceso a la información: en primer lugar, las personas no acceden realmente a la información que hay en internet sino a la información que les muestra el resultado de un determinado buscador (Las “gafas de Google”, las “gafas de Bing”, etc.) Y en segundo lugar, además el buscador cambiará los resultados personalizándolos al perfil de la persona en cuestión, basándose en sus datos personales (género, edad…) y en su comportamiento (que páginas ha visitado, que noticias lee…) (Las “gafas de Google” con los cristales tintados para la persona X…)

Veliz propone que el autogobierno de una comunidad política depende de la autonomía de los individuos, y por lo tanto todo ataque a dicha autonomía, por ejemplo, con la pérdida de privacidad, socava las bases de la libertad política real. De hecho va más allá al afirmar que dada esta incidencia de la privacidad en la autonomía personal debe considerarse que la privacidad no solo es de naturaleza individual, sino que tiene también una naturaleza colectiva, es decir que forma parte del bien común. (Véliz, 2021)

Sin entrar a valorar la exactitud, o el mayor o menor alarmismo de Véliz, es claro que las tecnologías digitales inciden en la privacidad y en la autonomía personal en un grado en el que el gran hermano orwelliano parece un juego de niños. De hecho, en los últimos meses y merced a la regulación europea sobre la denominada economía del dato han comenzado a cambiar masivamente los mensajes para acceder a las páginas web desde el anterior “aceptar o rechazar” el registro de los datos de navegación y comportamiento en la web, al nuevo “aceptar o suscribirse (con coste económico)” ¿No estamos institucionalizando y promoviendo la cosificación abierta y masiva de la privacidad? ¿Es prudente el escenario que se está consolidando tras los innumerables incidentes de intervención malintencionada de los últimos años4? ¿Es equiparable aplicar la “personalización” a una búsqueda sobre un destino de vacaciones respecto a una búsqueda sobre un asunto político? ¿Hasta qué punto esta “personalización” incide en el derecho a la información?

Más allá de toda discusión se revela necesario el cuidado de la privacidad y la autonomía personal como cimientos esenciales de las sociedades abiertas ante el impacto de las tecnologías digitales. Como cimientos esenciales para una sociedad digital abierta y democrática.

3.2. Medios de comunicación

Es esencial comprender la trascendencia de los medios de comunicación en cualquier sociedad. La prensa y los medios de comunicación en general inciden en todas las actividades humanas a nivel individual y social. Esta incidencia no es debida a su actual denominador común con las tecnologías informáticas, de las que ya se ha ilustrado su naturaleza pervasiva. Ciertamente pueden amplificar sus efectos, como se observa en las redes sociales, pero esta incidencia existe desde sus orígenes: tanto en el nacimiento de “la prensa” en la sociedad moderna, como en etapas previas de las diferentes sociedades y civilizaciones humanas con medios de comunicación no institucionalizados, sino desarrollados como actividades derivadas del ejercicio del gobierno, la propaganda, la influencia, la identidad cultural, y en general el poder.

Los medios de comunicación no son un mero elemento más de la sociedad, sino que materializan uno de los motores y pilares de las dinámicas sociales y políticas. Especialmente en la sociedad moderna, ya sea abierta y democrática, o más o menos totalitaria. Los medios de comunicación inciden en dos grandes planos de impacto sistémico, que, aunque interrelacionados, conviene diferenciar en este análisis: el ámbito político y el ámbito social.

La incidencia de los medios de comunicación en el ámbito político juega un papel clave en la creación de opinión pública. Por un lado, a nivel inmediato, para someter a la ciudadanía las decisiones del gobierno, y por otro lado, a largo plazo, para la evolución de la percepción de las alternativas políticas, ya sea en un periodo electoral o para superar un sistema totalitario. Quizás por ello se ha acuñado la denominación de “cuarto poder”.

Evidentemente el control y la acción de los medios de comunicación es un mecanismo necesario para sostener cualquier sistema totalitario, pero lo que nos interesa a efectos de este análisis es comprender cómo su deterioro en las sociedades abiertas democráticas genera dinámicas pseudototalitarias y puede, a la postre, ayudar a consolidar sistemas totalitarios. De hecho, en las sociedades abiertas se considera que existe una función social de los medios de comunicación con origen y fundamento en la teoría liberal: desde el origen filosófico en figuras como John Stuart Mill y Alexis de Tocqueville, pasando por la revolución americana, la revolución francesa, y finalmente ya en el siglo XX la consagración de la libertad de expresión y el derecho a la información en la Declaración de derechos humanos de la ONU (Aguirre, 2016).

En las sociedades abiertas democráticas la libertad de prensa “real” es uno de los mecanismos de garantía y sostenibilidad de la democracia “real”. Si la libertad de prensa es solo aparente el sistema democrático queda pervertido pues los medios de comunicación dejan de desempeñar su labor esencial para la creación de opinión pública con pretensión de verdad: tanto para someter a la ciudadanía las decisiones del gobierno, como para evaluar las alternativas políticas a largo plazo. En los últimos tiempos hemos asistido a un paulatino deterioro de la mencionada “pretensión de verdad”, sustituida por una militancia indisimulada de las líneas editoriales de los diferentes medios con los diversos líderes o corrientes políticas. Se trata de una falsa libertad de prensa que deja de cumplir la función social de los medios de comunicación: en lugar de contribuir a fortalecer la sociedad abierta democrática, la socava con prácticas pseudototalitarias de manipulación, o directamente amenaza los derechos fundamentales de la ciudadanía al privarla del derecho a la información.

Para aproximar su importancia véase el ejemplo de los “relatos de playback” de periodistas y medios respecto a partidos políticos, mera repetición de consignas en lugar de análisis intelectual del hecho y sus implicaciones. En este caso, lamentablemente tan frecuente, desaparece totalmente la esencia de lo que se entiende por periodismo. Y lo que es peor: se viste de periodismo lo que en realidad es propaganda. Se trata de un doble perjuicio: por un lado, no se realiza verdadero periodismo usando el intelecto y el criterio del periodista dando lo mejor de sí libremente para ayudar al ciudadano a crear su propia opinión. Y por otro lado, se viste de percepción de periodismo una comunicación que en realidad no lo es, transformando en la sociedad la propia percepción de la libertad de prensa. Esta ciudadanía sin libertad de prensa real ¿tomará decisiones informadas o desinformadas? Con este vector de movimiento social sostenido en el tiempo ¿será cada vez más probable la sostenibilidad de la democracia o más bien el advenimiento de alguna forma de autoritarismo?

Las tecnologías digitales han cambiado radicalmente los medios de comunicación, especialmente por la inviabilidad económica actual de los medios de prensa, y su consiguiente dependencia de los actores políticos, y finalmente su militancia. Pero ¿es sostenible una sociedad abierta democrática sin reconcebir la función de los medios de comunicación como garantes de la dinámica política democrática en la sociedad digital? Los hechos muestran día tras día, tanto en las sociedades abiertas como en las totalitarias, que no preservar esta función social de los medios de comunicación produce mecanismos de control social, es decir mecanismos no basados en las libertades ni en el libre florecimiento y acción de las personas.

Otro ejemplo muy relevante son las dinámicas de persecución desde los medios de comunicación de cualquier opinión que cuestione todo matiz de lo considerado “políticamente correcto” en un determinado ámbito. Es decir, se ha alentado, y en buena medida consolidado, una cierta práctica fundamentalista que prohíbe incluso la deliberación abierta sobre un asunto, cuando supone una discrepancia con la corriente social imperante en un momento dado. Se genera tanto en los ciudadanos, como en los propios periodistas y medios de comunicación una suerte de autocensura, cuya máxima expresión sería la denominada actitud “woke”. Las dinámicas sociales de temas tabú, autocensura, “woke” ¿protegen a la ciudadanía o la atacan? ¿Refuerzan una sociedad abierta o la debilitan?

Las soluciones no son evidentes. Aunque excede el objetivo de este artículo, destacan propuestas basadas en reformular una ética de la responsabilidad de los medios de comunicación a tres niveles: periodista, empresa informativa y sector (Aguirre, 2016). De cualquier modo, no solo es necesario sino urgente pasar de la preocupación a las medidas reales para reconcebir la función social de los medios de comunicación. Medidas para el cuidado de los medios de comunicación como elemento sistémico para una sociedad digital que conserve su naturaleza de sociedad abierta democrática.

3.3. Dinámicas sociales vs. tribalismo y polarización artificial

Tiende a pensarse que la agilidad de las tecnologías digitales debería mejorar la capacidad de información de la ciudadanía, pero lo ocurrido realmente ha sido lo contrario: la generalización de la desinformación por inundación de información. Esta inundación o sobreinformación incluye tanto información relevante y con pretensión informativa como información malintencionadamente sesgada, ambigua o directamente falsa. En este último caso, con una intención de alto impacto apoyado en las tecnologías digitales, y especialmente las redes sociales (lo que suele generalizarse como “fake news” o “noticias falsas”)

Así que el problema central de la ciudadanía no es obtener información sobre un asunto, sino discriminar entre los múltiples contenidos sobre ese asunto cuáles pueden ser más relevantes y confiables. Lo cual, por cierto, guardaría relación con la reconcepción de la función social de los medios de comunicación que se ha analizado más arriba. Aunque, claro está, requiriendo de nuevo la existencia de verdadera libertad de prensa.

En nuestros días se ha consolidado una dinámica de producción y consumo de noticias falsas con evidente intención de desinformación y desestabilización. Es grave no solo la existencia y progresión del fenómeno, sino la declaración y asimilación de las personas, medios de comunicación y la sociedad en su conjunto, considerándolo un status quo aceptable. Por ejemplo se ha constatado la interferencia de estados en procesos electorales de otros estados como el caso de Rusia en las elecciones de Estados Unidos de América: “EE UU asegura que Rusia e Irán intentaron manipular el resultado de las presidenciales de 2020” (Monge, 2021); o en sectores productivos (La Vanguardia, 2019); o en procesos de desestabilización como el referéndum del BREXIT: “Reino Unido admite que la «influencia rusa» en sus procesos democráticos «se ha convertido en la nueva normalidad»” (Muñoz, 2020); o en España el independentismo catalán por parte de Rusia “Una legión de cuentas automatizadas viralizó noticias de RT y Sputnik durante los 20 días más intensos del desafío secesionista”, “Un grupo de 4.883 perfiles automáticos de Twitter difundieron sistemáticamente mensajes de medios financiados por el Kremlin sobre el proceso independentista de Cataluña.” (Galán et al., 2017).

Adicionalmente, y en la misma dirección, es posible generar artificialmente polarización social usando las herramientas y mecanismos que ofrecen actualmente las tecnologías de la información. Técnicamente se habla de polarización inducida, con la intención última de moldear, modular, mercantilizar y conformar la vida cotidiana (Domingo, 2024b). Ello no solo pervierte y desestabiliza la dinámica social de una sociedad abierta democrática, sino que, por si fuera poco, genera inercias sociopolíticas emotivizadas, y carentes de espíritu deliberativo: ni actitud reflexiva, ni de diálogo real con el otro. Existen múltiples estudios de estos mecanismos (Pérez Zafrilla, 2020; 2021), que dibujan a las claras un vector creciente de tribalismo en la participación social, transformada en militancia pura y en la imposición de una visión sectaria. En lugar de las lecciones aprendidas de la historia, a sangre y guerra, sobre el diálogo real, la tolerancia, el pluralismo político y la pluriculturalidad.

Este escenario, explica en buena medida el avance de los populismos en las sociedades abiertas. Pero no solo eso, sino que alumbra una cierta evolución social instrumentalizadora de sesgos cognitivos humanos y dinámicas sociales alejadas de la esencia de una sociedad abierta, basada en libertades, mecanismos democráticos, comunicación libre y libertad de expresión e información. Por ejemplo, cabría destacar junto al mencionado tribalismo (basado en el sesgo cognitivo de necesidad de pertenencia a un grupo); la búsqueda de notoriedad (que pervierte las redes sociales privándolas de una orientación real a la comunicación enriquecedora que supuestamente estaba en su origen); la emotivización vs. la reflexión como motores de la participación social, etc. La resultante de todas estas dinámicas explica en buena medida la progresión global de la cultura del conflicto, o la “aceleración de las contradicciones” en terminología marxista (Domingo, 2024b), eso sí en su versión 2.0.

Aunque se constata que gracias a las tecnologías informáticas es posible una importante influencia negativa de desestabilización en las sociedades democráticas abiertas, no se trata de ser derrotistas. La sociedad no es una foto fija. La cuestión es si vamos a tener la determinación de proponer e implementar medidas que eliminen, o al menos mitiguen, las amenazas y aprovechen las oportunidades. Cuando se escuchan opiniones pesimistas, se observa que parten de la asunción de considerar las medidas de solución con base únicamente humana. Una de las claves para proponer soluciones efectivas es considerar la tecnología informática como primer ingrediente para la solución. Las soluciones últimas pueden basarse en última instancia una decisión humana, pero puede que solo puedan ser abordadas en toda su amplitud y efectividad mediante herramientas informáticas. Por cierto, no forzosamente de inteligencia artificial (IA). La ingeniería informática es la clave para resolver los problemas que el uso de la informática crea. Un buen ejemplo es el ámbito de las noticias falsas. Un problema de escala global, incluso con tácticas de “ciberguerra” de algunos estados, especialmente en relación a sociedades democráticas, y sobre todo un ingente volumen de información. La solución a este problema sólo tiene posibilidades de éxito estructural mediante el uso de herramientas informáticas que en primera instancia escuchen, procesen, identifiquen y analicen las posibles iniciativas de desestabilización o de inducción de la polarización.

3.4. Regulación vs. IA: entre el avance y el gatopardismo5.

En los últimos años hemos asistido a un boom del interés y al mismo tiempo la preocupación por la IA. Pareciera que la IA es una especie de champiñón que ha aparecido de un día para otro. No es así, pues se trata de un campo más de la informática, que de hecho existe desde sus albores tecnológicos en la primera mitad del siglo XX. Lo que ha cambiado ha sido la accesibilidad de su utilización, tanto a nivel técnico como económico. Un déjà vu en múltiples innovaciones y campos de la informática. La “democratización” de la IA ha generado dos importantes reacciones. Por un lado, el interés por el aprovechamiento de la IA por parte de las empresas, junto con una amplia receptividad social hacia su uso. Y paralelamente una gran preocupación social, y a veces incluso alarma, sobre la necesidad de regulación legal y uso ético. Esta preocupación está induciendo infinidad de estudios y debates alrededor de lo que se ha dado en llamar “la singularidad”: el supuesto momento en que un sistema de IA se vuelva consciente. Algo que, sin entrar en debatir su realismo o ficción, estaría tecnológicamente tan lejano como en las décadas precedentes. Pero mientras nos alarmamos por el pavor a la singularidad, continuamos: “aceptar, aceptar, aceptar…” al instalarnos aplicaciones informáticas en nuestros dispositivos personales o visitar un sitio internet. Seguimos mirando para otro lado, en relación a la necesidad de regular los productos y servicios informáticos en general. Las últimas décadas han evidenciado como la falta de regulación informática está produciendo importantes perjuicios individuales (fenómenos adictivos, problemas relacionales, acceso a pornografía y todo tipo de contenido por menores, etc.), llegando a nivel social a socavar la estabilidad de las sociedades democráticas. ¿No se comprende que la automatización informática no está supeditada a la IA? Nos preocupamos por lo que aún no tenemos y nos despreocupamos de lo que forma parte de nuestro día a día desde hace años. Por ejemplo, el paradójico escenario actual del “consentimiento desinformado” basado en el Por cierto, no forzosamente de inteligencia artificial (IA), aceptar, aceptar…” de términos y condiciones que no solo nadie lee, sino que son difícilmente comprensibles para cualquier ciudadano de a pie. La institucionalización del consentimiento desinformado. Con esta premisa son legalmente consentidos los más imaginativos desmanes en relación a los datos personales, la vigilancia del comportamiento en internet, la privacidad en general, el acceso a datos de una aplicación de monitorización de nuestras constantes vitales, etc. Y no solo eso, sino también almacenarlos, cederlos a terceras entidades... Todo ello con nuestro consentimiento, aunque no se sea plenamente consciente de su alcance e implicaciones.

Tras múltiples escándalos mediáticos6 llegó el punto de inflexión de la denominada muerte de la autorregulación y el inicio de una actitud de regulación legal necesaria, tanto desde el sector informático (Au-Yeung, 2020; Bambysheva y Ehrlich, 2023) como desde el ámbito ético “El fin de una era: de la autorregulación a la ley dura para la industria digital. Ha llegado el momento de reconocer que, por mucho que haya valido la pena intentarlo, la autorregulación no ha funcionado” (Floridi, 2021) La necesidad de regulación adecuada concierne a todo el ámbito digital, no a la IA ni a las nuevas inquietudes que pueda generar.

Mientras tanto seguimos hablando de la regulación de la IA, sin reparar en que, por ejemplo, en el caso europeo, la regulación de la IA se aplicará esencialmente a los sistemas considerados de riesgo. Es decir, que la inmensa mayoría de los sistemas de IA se incorporarán a la gran selva de no regulación de los productos y servicios informáticos. Así pues, es importante la existencia del reglamento europeo de la regulación de la IA, pues se trata de la primera gran norma legal que regula como tal productos y servicios informáticos a nivel internacional, introduciendo además el precedente de prohibir algunos usos. Pero al mismo tiempo, la realidad es que en lo referente a la incidencia sistémica a nivel individual y social mantiene un espíritu de gatopardismo: algo tiene que cambiar para que nada cambie. ¿No deberían algunos usos de productos y servicios digitales ser regulados independientemente de su tecnología informática? Lo que está mal porque se considera lesivo o peligroso a nivel individual o social no depende la tecnología con la que se implemente…

La modernidad de la Constitución Española, nacida durante la primera gran eclosión de la informática, recoge en el artículo 18 apartado 4 esta necesidad de regulación: “La ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos” Una referencia literal a la regulación de la informática con el tono general y prudente propio de una normativa constituyente, pero nótese que establecido no como opcional sino como un imperativo.

Cuando se evalúan elementos sistémicos del ámbito personal o social esta limitación de uso, esta regulación, no puede estar ligada a una determinada tecnología, ni la IA ni cualquier otra que esté por llegar. Por supuesto sin perjuicio de las especificidades, siempre adicionales, que puedan convenir ante una determinada tecnología.

Por ejemplo, el texto del reglamento europeo de IA prohíbe el uso de sistemas de IA para manipular el comportamiento humano o explotar vulnerabilidades de las personas. ¿Quiere esto decir que se permite conscientemente el uso de sistemas informáticos no basados en IA para manipular el comportamiento humano o explotar vulnerabilidades de las personas? Es más, ¿no estamos usando habitualmente sistemas informáticos no basados en IA que manipulan el comportamiento humano? ¿no se están usando habitualmente sistemas informáticos no basados en IA que explotan vulnerabilidades de las personas (menores, personas mayores, personas con poca formación...)?

Como apunte adicional, conviene recordar que la regulación nunca es suficiente para gobernar ámbitos de actividad humana altamente especializados... Hemos de construir la sociedad digital haciéndola gobernable y sostenible. Y para ello es imprescindible una cierta gobernabilidad de la propia tecnología informática. Pero para este logro no será suficiente con mejorar la regulación, pues los productos y servicios informáticos no son cosa de magia, sino que son concebidos, producidos y operados por profesionales. Y será su buen hacer y su responsabilidad lo que amortigüe la inevitable distancia entre regulación e incesante innovación. Por ello, es esencial señalar que será además necesaria una sólida ética profesional de la ingeniería informática para hacer posible un cierto gobierno de las tecnologías digitales, y fundado en ello, finalmente una sociedad digital confiable y sostenible. (Peñarrubia, 2022)

3.5. La atención y los elementos cognitivos

Aunque más arriba se ha hecho una referencia a la instrumentalización de elementos cognitivos asentados en la naturaleza y la sociedad humanas, es necesario analizar además, y específicamente, cómo las tecnologías informáticas están transformando los elementos cognitivos humanos más elásticos. Es decir, en el caso precedente se trataba de instrumentalizar malintencionadamente inercias cognitivas enraizadas en la evolución de la especie humana, y con poca capacidad de cambio a corto plazo. Ahora se trata de analizar cómo las tecnologías informáticas están afectando a muy corto plazo a herramientas cognitivas individuales esenciales y con alta capacidad de cambio. Y cómo ello está incidiendo en el comportamiento y las capacidades humanas tanto a nivel personal como social.

De nuevo la pervasividad de la informática ha llevado “las pantallas” y las aplicaciones informáticas a cada rincón y a cada instante de nuestras actividades diarias. Esta realidad progresiva e incesante ha sometido a las personas a un verdadero (¡e inconsciente!) “entrenamiento intensivo” en las últimas décadas. La historia muestra la extraordinaria capacidad de los seres humanos para perfeccionar sus habilidades gracias al entrenamiento. Practicar un deporte, tocar un instrumento musical, hablar un idioma, gestionar un proyecto de ingeniería informática, dirigir una empresa… son actividades que mejoran drásticamente con el entrenamiento. Sin duda la capacidad de aprender algo y entrenarse en ello hasta perfeccionarlo es una de las claves de la capacidad de adaptación y flexibilidad que nos ha traído hasta el presente como especie, y que es sin duda uno de nuestros puntos fuertes. Pero esta flexibilidad y elasticidad puede ser un arma de doble filo.

El entrenamiento diario y masivo de jóvenes, mayores y niños en el uso de productos y servicios informáticos está generando importantes consecuencias a nivel cognitivo. Destaca por su impacto y amplitud el análisis de Nicholas Carr, autor del famoso superventas “Superficial ¿Qué está haciendo internet con nuestro cerebro?” Carr ha estudiado cómo la naturaleza plástica del cerebro, se autoadapta y modifica nuestro comportamiento y nuestras capacidades por el uso intensivo de las tecnologías digitales. Con especial preocupación por un cierto modelo de personalidad al que se está tendiendo de modo generalizado y progresivo. Los estudios sobre la evolución psicológica de las personas muestran una evolución (involución más bien…) desde el cultivo de una personalidad rica que integra conocimientos y vivencias con una sólida capacidad de reflexión y criterio propio, hacia una personalidad con poca profundidad, poco reflexiva, superficial… (Carr, 2008). Para comprender este proceso hay que comenzar por la constatación de que la adaptación cerebral, a fuerza de “entrenarse” se ha ido acomodando a los usos y mecánicas de los productos y servicios informáticos, acabando por perderse capacidad de atención y concentración.

Múltiples estudios en diversos países y culturas muestran un incremento del déficit de atención en los niños y adolescentes (Spectrum News, 2018). De hecho, estudios más amplios indican que también hay una incidencia en los adultos, siendo una de las causas identificadas el uso de productos y servicios informáticos: pérdida de unos cuatro segundos de capacidad de atención en quince años, desde un lapso de atención promedio del ser humano de doce segundos en el cambio de siglo hasta una reducción a unos ocho segundos (Foot, 2016). La capacidad de atención sostenida también se está reduciendo progresivamente: en los noventa se situaba en doce segundos, después se redujo a ocho y actualmente, si el tema en cuestión no interesa lo suficiente en los primeros cinco segundos, el receptor deja de prestar atención (Ricou, 2019).

Los jóvenes también están empezando a acusar importantes cambios en su comportamiento respecto a las relaciones interpersonales y la comunicación. Por ejemplo, dificultades para la expresión oral que se manifiestan en la progresiva resistencia a las conversaciones ya sean presenciales o telefónicas. Pero especialmente una creciente dedicación de tiempo a productos y servicios informáticos, en detrimento de experiencias interpersonales, con preocupantes tendencias al uso excesivo e incluso la adicción. (UNICEF, 2021)

A los efectos de nuestro análisis, el mencionado “entrenamiento intensivo” que de facto se está produciendo, no solo afecta a la dispersión de la atención como se ha explicado, sino también en otros aspectos como la reacción por emoción (emotivización), el comportamiento no reflexivo, las relaciones no presenciales, etc. Todo ello sucediendo de manera inconsciente y sin medidas que puedan contrarrestar sus efectos cognitivos y de impacto en la personalidad. Con el agravante de que se está produciendo desde la más temprana infancia, cuando la repercusión en la plasticidad cerebral, los hábitos de comportamiento y la conformación del carácter es más profunda. Ya forma parte del paisaje ver un móvil o tableta asomar de un carrito de bebé... Sin entrar en un análisis específico de cada uno de los aspectos mencionados el impacto negativo es evidente.

Pero el impacto cognitivo en la atención es especialmente trascendente. Todo empieza en la atención: el aprendizaje, la reflexión, la decisión consciente… La pérdida de capacidad de atención y concentración está llevando consecuentemente a una pérdida de la capacidad de reflexión. Aspecto fuertemente conectado con la capacidad de autonomía personal analizada más arriba, y a la postre deteriorando de modo sistémico la conformación de una ciudadanía activa con criterio propio. Es decir, un impacto social sistémico que debilita la base esencial para una sociedad abierta sostenible.

Los estudios muestran que a nivel cognitivo estamos asistiendo a un aplanamiento de las capacidades humanas, o haciendo hermenéutica de Ortega podríamos decir que se está potenciando la persona-masa, que es lo opuesto a la idea de progreso humano. No es exagerado afirmar que si no se toman medidas puede consolidarse una cierta jibarización cognitiva que puede retroalimentar los peores efectos y amenazas de las tecnologías digitales en la deshumanización de la sociedad digital. Con las preocupantes extrapolaciones políticas y sociales que ello podría alimentar.

Como siempre las medidas podrán ser diversas, y con mayor o menor claridad en su pretendida eficacia, pero como propone Agustín Domingo hay que corregir los descuidos éticos del universo digital que afectan a la conformación de la ciudadanía digital, la ciudadanía de la sociedad digital. Es la hora de la transformación del horizonte educativo, en particular de la neuroeducación y en general de medidas que eduquen en gestión cognitiva, emocional y desarrollo de la personalidad de la sociedad digital. Más que nunca es necesario acabar con el “descuido del cuidado educativo” (Domingo, 2024a).

En definitiva, necesario y de nuevo urgente, cuidar los efectos cognitivos colaterales al uso de los productos y servicios informáticos propios de la sociedad digital. Cuidar en especial las capacidades de atención y concentración como fundamento de una ciudadanía con criterio propio, una ciudadanía con autonomía personal como base esencial para una sociedad digital abierta sostenible.

4. CONCLUSIÓN

Los seres humanos no somos islas del entorno en el que nacemos, crecemos y “florecemos”. El entorno social que nos toca vivir retroalimenta nuestro desarrollo, nuestras capacidades, nuestro comportamiento, y a la postre nuestras acciones y en terminología orteguiana nuestro programa de vida. Sin un entorno adecuado no es posible asegurar ni la realización individual y ni la conformación de una sociedad abierta.

Las tecnologías digitales proporcionan importantes beneficios en las capacidades humanas, pero también ocasionan efectos colaterales que afectan a elementos sistémicos a nivel individual y social que puede verse debilitados, como por ejemplo la privacidad y la autonomía personal; la función social de los medios de comunicación; la dinámica social deliberativa; la necesidad de orientar la regulación de las tecnologías digitales al impacto personal y social, y no a tecnologías concretas; la capacidad de atención y reflexión de las personas…

El debilitamiento de elementos sistémicos a nivel individual y social puede socavar enormemente algunas libertades y derechos que consideramos fundamentales para una vida buena. Más aún, ello puede facilitar procesos de cosificación de las personas y deshumanización de los usos de la sociedad digital. Y finalmente la potenciación de mecanismos pseudototalitarios o neoautoritarios de control social que pongan en riesgo la construcción de una sociedad digital abierta y democrática.

Así pues, se trata de supeditar las posibilidades tecnológicas a la potenciación de las capacidades humanas y sociales frente a supeditar las personas y la sociedad a las posibilidades abiertas por la tecnología. En definitiva, es necesario y urgente poner en primer plano la exigencia social de crear unas condiciones mínimas en los cimientos sistémicos de la sociedad digital en construcción que permitan a cada persona elegir su proyecto de vida buena.

Por todo ello, se considera que en el ámbito del cuidado y la tecnología es necesario tomar conciencia y adoptar medidas para el cuidado de los cimientos sistémicos individuales y sociales por el impacto de las tecnologías digitales con objeto de preservar su esencia humanizadora y la sostenibilidad y la mejora de la sociedad abierta democrática que conocemos.

Por si fuera poco, es conveniente mencionar nuevos retos y tecnologías informáticas o híbridas cuya eclosión está por llegar y que aumentarán, si cabe, el impacto en las personas y la sociedad toda: monitorización personal; asistentes inteligentes; experiencias y prácticas virtuales multisensoriales; vehículos autónomos; intimidad virtual; internet de las cosas y espacios inteligentes, inteligencia artificial fuerte, robótica, metaverso, informática cuántica… La amplitud de la lista y su crecimiento constante gracias a la incesante innovación informática deberían hacernos comprender que estamos jugando con fuego y que cada día que pasa sin adoptar medidas contundentes el peligro es mayor. Estas novedades y los interrogantes abiertos en el análisis realizado apuntan a la necesidad de nuevas investigaciones, de las que cabría destacar: el estudio de los límites de la capacidad humana para asimilar el cambio continuado de las bases de la acción y relación individual y social; la redefinición de la privacidad y la autonomía individuales para una sociedad digital abierta sostenible; la reconcepción del derecho a la información y la función del periodismo y los medios de comunicación; el diseño de mecanismos efectivos para llevar a la práctica la ética y la responsabilidad social en la dinámica social, especialmente a nivel institucional y empresarial; el diseño de fórmulas de gobernanza de las tecnologías digitales y su impacto; la revisión de los procesos de educación y desarrollo personal para la ciudadanía de la sociedad digital… Ojalá seamos capaces de asumir estos retos y nuevos esfuerzos para contribuir a la construcción de una sociedad digital abierta en la que el ser humano pueda seguir floreciendo y dando lo mejor de sí.

BIBLIOGRAFÍA:

Aguirre, M. J. (2016). Ética de los medios de comunicación. Barcelona: Herder.

Au-Yeung, A. (2020). Mark Zuckerberg’s Message To The U.S. Government In Annual Note: Regulate Us, Just Don’t Break Us Up. Revista Forbes. Disponible en: https://www.forbes.com/sites/angelauyeung/2020/01/09/mark-zuckerbergs-message-to-the-us-government-in-annual-note-regulate-us-just-dont-break-us-up/?sh=6b431df07a24 (Consulta: 10 de febrero de 2024).

Bambysheva, N. y Ehrlich, S. (2023). Circle Begs Congress: Please Regulate Us. Revista Forbes. Disponible en: https://www.forbes.com/sites/ninabambysheva/2023/06/07/circle-begs-congress-please-regulate-us/?sh=1671ba894e27 (Consulta: 10 de febrero de 2024).

Bergson, H. (1932). Les deux sources de la morale et de la religión. Presses Universitaires de France.

Carr, N. (2008). Is Google Making Us Stupid? The Atlantic, 301. Disponible en: https://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/306868/ (Consulta: 2 de marzo de 2024).

Castells, M. (2000). La Era de la Información: economía, sociedad y cultura. Volumen I: La Sociedad Red. Madrid: Alianza Editorial

Cortina, A. (2011). Una propuesta de ética del desarrollo. Éthique et Économique, 8(1), 1-17.

DIRSE-Beethik. (2021). El estado de la gestión ética en nuestras organizaciones. Tendiendo puentes entre el propósito y la acción. Asociación Española de Directivos de Responsabilidad Social. Disponible en https://www.dirse.es/wp-content/uploads/2021/09/20210916-Informe-Estudio-Gestio%CC%81n-E%CC%81tica_beethik-dirse_Defx.pdf (Consulta: 1 de marzo de 2024)

Domingo, A. (2021). Del hombre carnal al hombre digital. Vitaminas para una ciudadanía digital. TEEL editorial.

Domingo, A. (2024a). Tecnocracia y desvinculación. Descuidos éticos del mundo digital. TEEL editorial.

Domingo, A. (2024b) Los pirómanos de la polarización. Las Provincias. Disponible en: https://www.lasprovincias.es/opinion/agustin-domingo-moratalla-piromanos-polarizacion-20240302001932-nt.html (Consulta: 11 de marzo de 2024).

Floridi, L. (2021). The End of an Era: from Self-Regulation to Hard Law for the Digital Industry. Philosophy and Technology, 34(4), 619–622. https://doi.org/10.1007/s13347-021-00493-0

Foot, G. (2016). ¿Por qué hemos perdido cuatro segundos de capacidad de atención en 15 años? BBC News. Disponible en: https://www.bbc.com/mundo/noticias/2016/02/160229_tecnologia_concentracion_distraccion_atencion_mz (Consulta: 15 de febrero de 2024).

Galán, J., Abad, J. M. y Alameda, D. (2017). Los 4.800 bots que jalearon el ‘procés’. Diario El Pais. Disponible en: https://elpais.com/politica/2017/12/04/actualidad/1512389091_690459.html (Consulta: 3 de febrero de 2024).

Guolet, D. (1978). A Pride of Prophets on our Technological Future. Worldview, 21(3), 35-38.

Guolet, D. (1983). Science and Technology for a Global Society. Impact of Science on Society II. Unesco. pp. 179- 188.

La Vanguardia (2019). La OTAN y Estados Unidos culpan a China del ciberataque a Microsoft. Diario La Vanguardia. Disponible en: https://www.lavanguardia.com/internacional/20210719/7610644/estados-unidos-culpa-china-ciberataques-microsoft.html. (Consulta: 3 de febrero de 2024).

Maritain, J. (1966). Humanismo integral. Ediciones Carlos Lohlé.

Monge, Y. (2021). EE UU asegura que Rusia e Irán intentaron manipular el resultado de las presidenciales de 2020. Diario El País. Disponible en: https://elpais.com/internacional/2021-03-16/ee-uu-asegura-que-rusia-e-iran-intentaron-manipular-el-resultado-de-las-presidenciales-de-2020.html (Consulta: 3 de febrero de 2024).

Morley, J., Floridi, L., Kinsey, L. y Elhalal, A. (2019). From What to How: An Initial Review of Publicly Available AI Ethics Tools, Methods and Research to Translate Principles into Practices. SSRN. http://dx.doi.org/10.2139/ssrn.3830348 (Consulta: 3 de febrero de 2024).

Muñoz, A. (2020). Reino Unido admite que la ‘influencia rusa’ en sus procesos democráticos ‘se ha convertido en la nueva normalidad’. Diario El Mundo. Disponible en: https://www.elmundo.es/internacional/2020/07/21/5f16c53221efa094198b45ba.html (Consulta: 1 de febrero de 2024).

Ortega y Gasset, J. (1947). Meditación sobre la técnica. Volumen V de las Obras completas, edición de 1947. Revista de Occidente. Madrid

Peñarrubia, J. P. (2022, 24 al 28 de octubre). El papel de la ética profesional de la ingeniería informática como elemento necesario para la construcción y la sostenibilidad de la sociedad digital. Comunicación en VI Congreso Internacional de Bioética: Bioética y Democracia ante el reto de la Inteligencia Artificial. Universidad de Costa Rica. San José. (Pendiente de publicación).

Peñarrubia, J. P. (2024). La IA y el gorila invisible. Diario La Razón. Disponible en: https://www.larazon.es/opinion/gorila-invisible_2024022165d53680344c980001b1d9dc.html (Consulta: 22 de febrero de 2024).

Popper, K. (1945). The Open Society and Its Enemies, Volume I. George Routledge & Sons, LTD. Disponible en: https://antilogicalism.com/wp-content/uploads/2018/04/open-society-1.pdf

Pérez Zafrilla, P. J. (2020). Polarizacion politica: Estado de la cuestion y orientaciones para el análisis. Emociones, argumentación, argumentos. Palestra: Lima Cristián Santibáñez (ed.). pp. 97-124.

Pérez Zafrilla, P. J. (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en internet. Recerca. Revista de Pensa-ment i Anàlisi, 26(2), pp. 1-23. http://dx.doi.org/10.6035/recerca.4661

Ricou, J. (2019). Cinco segundos de atención. La búsqueda de estímulos continuos afecta a las habilidades de concentración. Diario La Vanguardia. Disponible en: https://www.lavanguardia.com/vida/20190203/46177449169/capacidad-atencion-estimulos-concentracion.html#:~:text=Uno%2C%20dos%2C%20tres%2C%20cuatro,un%20v%C3%ADdeo%20o%20una%20conversaci%C3%B3n (Consulta: 8 de febrero de 2024).

Spectrum News. (2018). Los diagnósticos de déficit de atención casi se duplican en dos décadas. Autismodiario. Disponible en: https://autismodiario.com/2018/09/08/los-diagnosticos-de-deficit-de-atencion-casi-se-duplican-en-dos-decadas/ (Consulta: 6 de febrero de 2024).

Stolterman, E. y Croon Fors, A. (2004). Information Technology and the Good Life. In: Kaplan, B., Truex, D.P., Wastell, D., Wood-Harper, A.T., DeGross, J.I. (eds) Information Systems Research. IFIP International Federation for Information Processing, vol 143. Springer, Boston, MA. https://doi.org/10.1007/1-4020-8095-6_45.

UNICEF (2021). Impacto de la tecnología en la adolescencia: Un estudio comprensivo e inclusivo hacia el uso saludable de las TRIC. UNICEF España, Consejo General de Colegios de Ingeniería Informática (CCII) y Universidad de Santiago de Compostela. Noviembre de 2021. Disponible en: https://www.unicef.es/publicacion/impacto-de-la-tecnologia-en-la-adolescencia (Consulta: 1 de marzo de 2024).

Véliz, C. (2021). Privacidad es poder. Datos, vigilancia y libertad en la era digital. Editorial Debate. Madrid.

1jupapeca@gmail.com. Universitat de València. Departamento de Filosofía. Área de Filosofía Moral, Política y Social. Av. Blasco Ibáñez 30, 46010 Valencia.

2Sociedad abierta es un término introducido por Henri Bergson (Bergson, 1932) y desarrollado como sociedad con mecanismos políticos orientados a la transparencia, y con un gobierno con actitud de responder a los requerimientos de los ciudadanos y tolerante con la discrepancia. Con posterioridad tomado y redefinido por Karl Popper (Popper, 1947), como sociedad con un sistema político mediante el cual los gobernantes son renovados sin recurrir a la violencia, y en la que forma parte de la naturaleza de la ciudadanía la necesidad de tomar decisiones personales.

3Conviene recordar que se ha considerado una duración de unos 25-30 años para una generación. Si bien actualmente, cabría replantearse esta duración dado el aumento de la esperanza de vida.

4Ver referencias a incidentes en apartado 3.3. en (Galán et al., 2017; La Vanguardia, 2019; Monge, 2021; Muñoz, 2020)

5Parte de las cuestiones abordadas en este apartado fueron planteadas por primera vez por el autor en el artículo de prensa “La IA y el gorila invisible” (Peñarrubia, 2024).

6Destacan: el caso Volkswagen de manipulación del software de control de emisiones de sus motores; el caso Facebook-Cambridge Analytica de recopilación y uso masivo de datos de ciudadanos con fines de propaganda política; y el caso Boeing 737 MAX, tras dos accidentes en octubre de 2018 y marzo de 2019 y la muerte de 346 personas