Resumen

La cuarta revolución industrial es un periodo histórico surgido a tenor de la convergencia entre sistemas digitales, físicos y biológicos que transforman a la humanidad. Entre las principales características de este periodo se encuentran la profundidad y velocidad experimentada en la relación entre la tecnología y los seres humanos. Esta revolución pivota sobre la inteligencia artificial (IA) como la tecnología disruptiva que ha asumido el protagonismo de las últimas décadas. La IA tiene por objeto la emulación de determinadas capacidades características del cerebro humano, como por ejemplo la percepción, la toma de decisiones, la predicción, la extracción de conocimiento y reconocimiento de patrones, la interacción, el razonamiento lógico, etc. Para el desarrollo de estas capacidades la IA emplea diversas técnicas que destacan por un alto nivel de complejidad.

La presencia de la IA se ha incrementado en numerosos espacios y actividades como resultado del soporte que ofrece. Un incremento que se ha traducido en la aparición de múltiples desafíos relacionados con la gobernanza, el sesgo algorítmico, la transparencia, la privacidad, entre otros. Estos desafíos han estimulado el interés de la Comisión Europea (CE) para manifestar la necesidad de sentar las bases de un entorno confiable de IA. Sin embargo, el cultivo de confianza en el ámbito de la IA es una empresa que requiere una profunda reflexión ética. En ese sentido, el objeto de estudio específico que se abordará en este trabajo consistirá en analizar las implicaciones éticas que presenta el sesgo algorítmico y su condicionamiento para el surgimiento de la confianza. Para procurar este surgimiento es conveniente dirigir la atención hacia las relaciones que están presentes en el sesgo algorítmico. En estas relaciones es preciso identificar la vulnerabilidad como una característica esencial de la condición humana. En consecuencia, la confianza en los sistemas artificiales dependerá del reconocimiento y consideración de una vulnerabilidad que se ve comprometida con el funcionamiento de los algoritmos.

En esta comunicación se reflexionará sobre la necesidad de asumir una responsabilidad moral que constituya la puesta en valor del cuidado de la vulnerabilidad como un requisito ineludible para el cultivo de confianza en aras de un desarrollo ético de la IA. Para el cumplimiento de este propósito la metodología que se llevará a cabo consistirá en un análisis bibliográfico de investigaciones científicas destacadas en torno a las implicaciones éticas del sesgo algorítmico.

En definitiva, se destacará que el cultivo de la confianza requiere de un cuidado estructural previo que reconozca y considere la vulnerabilidad presente en las relaciones entre la IA y los seres humanos que se encuentran configuradas por medio de los sesgos algorítmicos. Un entorno confiable debe, necesariamente, situar el cuidado de la vulnerabilidad como una condición esencial para el desarrollo de los intelectos sintéticos. Este planteamiento abre una ventana de oportunidad para pensar el desempeño de los algoritmos desde una perspectiva ética de cuidado de la vulnerabilidad.

Palabras Clave / Confianza / Cuidado / Inteligencia Artificial / Responsabilidad / Vulnerabilidad

Abstract

The fourth industrial revolution is a historical period arising from the convergence between digital, physical and biological systems that transform humanity. Among the main characteristics of this period are the depth and speed experienced in the relationship between technology and human beings. This revolution pivots on artificial intelligence (AI) as the disruptive technology that has taken center stage in recent decades. AI aims to emulate certain characteristic capabilities of the human brain, such as perception, decision making, prediction, knowledge extraction and pattern recognition, interaction, logical reasoning, etc. To develop these capabilities, AI uses various techniques that stand out for their high level of complexity.

The presence of AI has increased in numerous spaces and activities as a result of the support it offers. An increase that has resulted in the appearance of multiple challenges related to governance, algorithmic bias, transparency, privacy, among others. These challenges have stimulated the interest of the European Commission (EC) to express the need to lay the foundations for a trusted AI environment. However, the cultivation of trust in the field of AI is an undertaking that requires deep ethical reflection. In this sense, the specific object of study that will be addressed in this work will be to analyze the ethical implications of the algorithmic bias and its conditioning for the emergence of trust. To ensure this emergence, it is convenient to direct attention to the relationships that are present in the algorithmic bias. In these relationships it is necessary to identify vulnerability as an essential characteristic of the human condition. Consequently, trust in artificial systems will depend on the recognition and consideration of a vulnerability that is compromised by the functioning of the algorithms.

This communication will reflect on the need to assume a moral responsibility that constitutes the enhancement of vulnerability care as an unavoidable requirement for the cultivation of trust for the ethical development of AI. To fulfill this purpose, the methodology that will be carried out will consist of a bibliographical analysis of outstanding scientific research on the ethical implications of algorithmic bias.

In short, it will be highlighted that the cultivation of trust requires prior structural care that recognizes and considers the vulnerability present in the relationships between AI and human beings that are configured through algorithmic biases. A trustworthy environment must necessarily place the care of vulnerability as an essential condition for the development of synthetic intellects. This approach opens a window of opportunity to think about the performance of algorithms from an ethical perspective of care of vulnerability.

Keywords / Artificial Intelligence / Care / Responsibility / Trust / Vulnerability

FIRMANTES

Nombre Adscripción Procedencia
Antonio Luis Terrones Rodríguez Universitat de Valencia / Instituto de Filosofía-CSIC Madrid