De la ética de la inteligencia artificial a una ética del cuidado en contextos algorítmicos: una llamada de atención
Resumen
En este artículo se exponen algunos de los principales problemas éticos relacionados con la inteligencia artificial (IA). Estas herramientas de IA se han ido implantando en infinidad de áreas, como el ámbito laboral, médico, judicial o administrativo. Si bien estas tecnologías prometen mejorar nuestras prácticas y hacerlas más eficientes, problemas éticos como los sesgos, la discriminación o la vulneración de la privacidad resultan preocupantes. Tras una exposición inicial sobre estos problemas éticos de la IA, se hace una llamada de atención a la necesidad de incorporar las reflexiones de la ética del cuidado a la ética de la inteligencia artificial.
Citas
Alonso, M. (2018). Reflexiones en torno a la idea del hombre como ser carencial: Ortega, Gehlen y Sloterdijk. Thémata. Revista de filosofía, 58, 119-136.
Alonso, M. (2019). El extrañamiento, una clave antropo-metafísica de la filosofía madura de Ortega. Contrastes. Revista Internacional de Filosofía, XXIV(1), 7-21.
Alonso, M. (2020). Ortega: A Philosophy of Technology Pioneer”. ANNALS of the University of Bucharest, Philosophy Series, LXIX, 1, 9 – 26.
Alonso, M. (2021). Ortega y la técnica. Madrid: Consejo Superior de Investigaciones científicas (CSIC) y Plaza y Valdés.
Baylis, F. (2012). The Self in Situ: A Relational Account of Personal Identity en J. Downie & J.J. Llewelyn (eds.). Being Relational: Reflections on Relational Theory and Health Law. Vancouver, BC: UBC Press, chapter 5, 109-131
Baylis, F. (2017). Still Gloria: personal identity and dementia. The international journal of feminist approaches to bioethics. 10(1), 210-224. https://doi.org/10.3138/ijfab.10.1.210
Bostrom, N. (2016). Superinteligencia: caminos, peligros, estrategias. Traducción e introducción de Marcos Alonso. Madrid: TEELL.
Broncano Rodríguez, F. (2009). La melancolía del ciborg. Herder, Barcelona.
Burrell, J. (2016). How the machine ‘thinks:’ Understanding opacity in machine learning algorithms. Big Data & Society 3(1), 1–12.
Bustamante Donas, J. (2011). La evolución del concepto de naturaleza en la filosofía de la tecnología. En Alonso Bedate, C., Lo natural, lo artificial y la cultura, (Ed.), Madrid, Universidad Pontificia Comillas: 15-32.
Coeckelbergh, M. (2011). Vulnerable Cyborgs: Learning to Live with our Dragons. Journal of Evolution and Technology, 22, 1, 1-9.
Coeckelbergh, M. (2015). The tragedy of the master: automation, vulnerability, and distance. Ethics Inf Technol 17, 219–229. https://doi.org/10.1007/s10676-015-9377-6
De Waal, F. (2010). El mono que llevamos dentro. Barcelona: Tusquets.
Domingo Moratalla, A. (2022). Homo Curans. El coraje de cuidar. Madrid: Encuentro.
Domingo Moratalla, A. (2022). Ética del cuidado en la era digital. Retos en el horizonte político de la Inteligencia Artificial. SCIO, Revista de Filosofía. Recuperado de https://proyectoscio.ucv.es/articulos-filosoficos/etica-delcuidado/
Echeverría Ezponda, J. (2000). Sobrenaturaleza y sociedad de la información: La Meditación de la técnica a finales del siglo XX. Revista de Occidente, 228 (Ortega y la sociedad tecnológica), 19-32.
Eubanks, V. (2017). Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor. New York, NY: St. Martin’s Press.
European Commission. (2012). Regulation of the European Parliament and of the Council on the Protection of Individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation). Brussels: European Commission. Available at: http://ec.europa.eu/justice/data-protection/ document/review2012/com_2012_11_en.pdf.
Ferguson, A. G. (2012). Predictive policing and reasonable suspicion. The Emory Law Journal, 62, 259 325
Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford: OUP.
Gilligan, C. (1982). In a Different Voice: Psycological Theory and Women’s Development. Cambridge, MA: Harvard University Press
Greenwald, A. (2017). An Al stereotype catcher. Science, 356 (6334), 133134.
Jackson, J. R. (2018). “Algorithmic Bias”. Journal of Leadership, Accountability and Ethics, 15(4), 55-65.
Kirkpatrick, K. (2016). Battling Algorithmic Bias. Communications of the ACM 59, 10(2016), 16.
Kwon, H. E., So, H., Han, S. P., & Oh, W. (2016). Excessive Dependence on Mobile Social Apps: A Rational Addiction Perspective. Information Systems Research, 27(4), 919–939. https://doi.org/10.1287/isre.2016.0658
MacIntyre, A. (1984). Tras la virtud. Crítica: Barcelona.
MacIntyre, A. (2001). Animales racionales y dependientes. Por qué los humanos necesitamos las virtudes. Paidós; Barcelona.
Mittelstadt, B.D. & Floridi, L. (2016). The ethics of big data: Current and foreseeable issues in biomedical contexts. Science and Engineering Ethics, 22(2), 303–341.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society 3(2), 205395171667967. Mumford, L. El mito de la máquina. La Rioja, Pepitas de calabaza, 2013.
Noddings, N. (1984). Caring: A Relational Approach to Ethics and Moral Education. University of California Press. O’Neil, C. Weapons of Mass Destruction: How Big Data Increases Inequality and Threatens Democracy. U.S.: Penguin Books, 2016.
Ortega y Gasset, J. (2004-2010). Obras completas. Tomos I-X. Madrid: Taurus.
Popp, T. (2017). Black box justice. The Pennsylvania Gazette, 3847, 2017.
Rodríguez-Pardo del Castillo, J. M. (2018). El sesgo ético en los algoritmos de inteligencia artificial aplicados al seguro. https://app.mapfre.com/documentacion/en/catalogo_imagenes/grupo.do?path=1097479
Schechtman, M. (2014). Staying Alive: Personal Identity, Practical Concerns, and the Unity of a Life. Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780199684878.001.0001
Sherwin, S. (1992). No Longer Patient: Feminist Ethics and Health Care. Philadelphia: Temple
Terrones Rodríguez, A. L. (2023). Ética de la responsabilidad y cuidado en un horizonte de inteligencia artificial sostenible. SCIO. Revista de Filosofía, 25.
Vallès-Peris, N. (2021). Repensar la robótica y la inteligencia artificial desde la ética de los cuidados. Teknokultura: Revista de Cultura Digital y Movimientos Sociales, 18(2), (Ejemplar dedicado a: Sociedad digital y salud), págs. 137-146.
Vayena, E., Blasimme, A., and Cohen, I. G. (2018). Machine Learning in Medicine: Addressing Ethical Challenges. PLoS Medicine 15(11), E1002689.
Véliz, C. (2021). Privacy is power: Why and how you should take back control of your data. London.
Vieja de la, M. T. et al. (eds.). (2006). Bioética y Feminismo. Universidad de Salamanca.
Williams, B. A., Brooks, C. R., & Shmargad, Y. (2018). How algorithms discriminate based on data they lack: Challenges, solutions and policy implications. Journal of lnformation Policy, 8, 78 115. https://www.jstor.org/stable/10.5325/jinfopoli.8.2018.0078
Zimmermann, A. & Lee-Stronach, C. (2021). Proceed with Caution. Canadian Journal of Philosophy, 1–20. https://doi.org/10.1017/can.2021.17