Está claro que estamos viviendo una nueva era en la inteligencia artificial, en la que su alcance y posibilidades parecen ilimitadas. Todos sabemos que estos sistemas están implantados ya, pero pocos son conscientes de hasta qué punto. Todos los días hacemos interacciones con decenas de sistemas que integran IA de algún tipo: hacer fotografías con nuestro smartphone, comunicarnos a través de correos electrónicos, crear una cita en nuestra agenda o incluso el simple hecho de conectarnos a la red de suministro eléctrico.
Cada vez que hacemos una foto, nuestro teléfono toma varias imágenes y las combina utilizando algoritmos de IA para crear el mejor resultado posible: es la llamada fotografía computacional. Gracias a ella, los limitados sensores fotográficos de los smartphones pueden hacer fotografías que se acercan cada día más a las grandes cámaras profesionales. Después, otro algoritmo analiza la fotografía y la clasifica: si la fotografía contiene un perro, podremos encontrarla rápidamente buscando ‘perro’ en nuestra galería. ¿Quién controla a estos algoritmos? ¿Cómo puedo estar seguro de que la imagen no se utiliza para otros fines y que en ningún caso es vista por seres humanos? ¿Quién garantiza mi privacidad?
Índice de temas
El poder de la inteligencia
Detrás de la concepción de estos sistemas hay miles de ingenieros por todo el mundo, cuyo trabajo es garantizar que cumplan con su cometido. Al estar tratando con nuestros datos personales, fotografías, peticiones a nuestros asistentes virtuales etc. está claro que hay que poner mucho esfuerzo en realizar este proceso de forma responsable. Esta responsabilidad cae en los profesionales que hay detrás de estos algoritmos. ¿Estamos dándoles demasiado poder? ¿Tienen que ser conscientes del poder que tienen y ser especialmente cuidadosos?
¿Cómo se tratan estos datos? Este mismo año se descubrió que las empresas que hay detrás de los principales asistentes visuales del mercado tenían a personas contratadas para escuchar los clips de audio de las peticiones realizadas por los usuarios, para así mejorar el funcionamiento del asistente virtual. Estos clips de audio en principio estaban anonimizados, y supuestamente era imposible conseguir asociarlos a su autor, pero la política del tratamiento de los datos era bastante opaca, lo que ha forzado a que los responsables hayan cambiado su forma de trabajar, pidiendo en muchos casos permiso explícito al usuario para poder analizar sus datos y dejar claro qué es lo que van a hacer con los datos que recolecten.
¿Era la IA la culpable de que trataran los datos de una forma cuestionable?
¿Era la IA la culpable de que trataran los datos de una forma cuestionable? En absoluto, los humanos tenemos que ser responsables de cómo la aplicamos y para qué. Para empezar, hay que entender que la IA es una simple herramienta que nos ayuda a resolver multitud de problemas. Por ejemplo, uno de los tipos más utilizados son las llamadas ‘redes de convolución’, un algoritmo dentro de la parte de la IA llamada deep learning’ (que es a su vez parte del machine learning). Estos algoritmos son capaces de ver imágenes, extraer características importantes de cada una de ellas, diferenciarlas y clasificarlas. Son muy utilizadas en labores de visión artificial, y podríamos utilizarlo para tareas beneficiosas como predecir si un lunar es canceroso o de naturaleza cuestionable o también para estimar el poder adquisitivo de una persona a partir de su apariencia física. Dos usos muy diferenciados de una misma herramienta.
Como vemos, es importante saber hasta dónde llegar con esta tecnología. En principio, es una herramienta más, que sustituye a otras como por ejemplo la intervención humana. En ambos casos podríamos asignarle esa labor a un ser humano preparado para desempeñarla. La ventaja de la IA en este punto no es hacer el trabajo mejor que un humano, sino hacerlo más rápido y con un coste menor. Lo que debe imperar es el sentido común y aprovechar esta gran herramienta para hacer el bien, como herramienta de mejora de tu trabajo y como una forma de poder llegar más allá.
El aprendizaje supervisado
El punto de partida de todo esto son una serie de datos y un algoritmo capaz de aprender de ellos: ¿cómo hacemos pues que aprendan de estos datos para poder sacarles partido? No hay una única metodología, pero podemos centrarnos en lo que se llama ‘aprendizaje supervisado’. Con este tipo de aprendizaje, se le facilita al algoritmo un conjunto de datos de entrada emparejados con sus salidas asociadas. En el caso del análisis de los lunares, aportaríamos fotos de lunares no cancerosos, marcadas como ‘no cancerosos’ y fotos de lunares cancerosos marcadas como tales. Con suficientes ejemplos, podremos entrenar al algoritmo para que sea capaz de extraer los factores que diferencian visualmente a estos dos tipos. Esto quiere decir que si preparamos a una IA para que sea capaz de realizar una tarea, es nuestra responsabilidad aportarle unos buenos datos para aprender de forma imparcial.
Por ejemplo, para este caso, si en nuestro conjunto de datos únicamente tenemos lunares no cancerosos de personas con piel clara y lunares que sí lo son en personas de piel oscura seguramente conseguiríamos que nuestro algoritmo considerase como factor determinante en su decisión que el color de piel de la fotografía fuera claro u oscuro. Nuestro algoritmo no realizaría las predicciones correctas por culpa del sesgo de nuestros datos de entrada.
Otro caso muy mediático de hace un par de años relacionado con esto es que varios medios publicaron la noticia de que una IA de Google encargada de clasificar nuestras fotos tenía tendencia a clasificar a las personas de raza negra como gorilas. Estábamos ante un algoritmo racista, y la causa de ese racismo no fue una mala intención por parte de sus creadores, sino que, de forma accidental, los datos con los que se entrenó al algoritmo no fueron los correctos e hicieron que tuviera un sesgo que provocaba que hiciera mal su labor. Seguramente no tenía una muestra lo suficientemente grande de personas de raza negra.
El resultado del procesamiento de datos por parte de sistemas de inteligencia artificial depende totalmente de nosotros, sus creadores. Por lo tanto, si queremos que la IA se expanda como algo positivo para la sociedad, necesitamos que respete estos tres pilares: buena intención, correcta implementación y un adecuado tratamiento de los datos.