Retos sociales y éticos de la Inteligencia Artificial

Friday, February 8, 2019

Retos sociales y éticos de la Inteligencia Artificial

Post escrito por Elena Gil, CEO de LUCA para el Club Chief Data Officer Spain

Hablar de ética del dato puede resultar vertiginoso. Los retos no han hecho más que aparecer y, por tanto, por el momento tenemos más interrogantes que respuestas. Existe mucha incertidumbre y cualquier ponente que exprese demasiada confianza en su conocimiento sobre el tema corre el riesgo de equivocarse. Sin embargo, Elena Gil, CEO de LUCA, está en una posición privilegiada para explorar los dilemas morales más comunes que nos puede plantear hoy el uso de los datos en la empresa.

Retos éticos y sociales de la IA


“Es importante que los CDO tengan la mente puesta no ya en los retos actuales, sino en los que están por venir”, destacó Gil. “Vivimos un momento muy especial por la integración de la inteligencia artificial (IA) -que, como sabemos, no es nueva, aunque esté de moda- con el big data. La mayor capacidad de gestión y almacenamiento de datos ha hecho posible esta combinación, dando una nueva vida a la IA”.

Agilidad en la toma de decisiones, recomendaciones más afinadas, asistencia en tiempo real… La combinación de la IA y el big data están favoreciendo la rapidez de adopción de soluciones como estas. Dicha rapidez dependerá de del uso intensivo que cada sector haga de la IA, pero sin duda llegará a todos y cada uno de ellos.

Figura 1: ¿Hacia dónde nos dirigimos an analítica?.
Figura 1: ¿Hacia dónde nos dirigimos an analítica?.

Desde su incorporación a Telefónica, Gil ha sido testigo, en paralelo, de la evolución de la compañía y de la del mercado de los datos. “Almacenarlos y procesarlos ya no es tan costoso como hace unos años. Las empresas con un gran patrimonio en datos, como las de telecomunicaciones, tienen muchas más facilidades para monetizarlos y darles nuevos usos. El big data, simplemente, ha transformado radicalmente la visión que tenemos de los clientes: podemos segmentar mejor y ofrecer mejores servicios. Conocer con más detalle a nuestros clientes”.

“Tradicionalmente, hemos usado más tecnología en casa que en la oficina, pero el análisis de datos, la IA y los dilemas que conllevan son una realidad en la empresa. Hemos pasado rápidamente de la ciencia ficción a la realidad empresarial”.

La transformación de Telefónica ha sido una historia de exploración. “Cuando el big data no era una moda había un gran camino que recorrer en cuanto a su divulgación. Incluso hoy, ese reto permanece. Debemos demostrar su valor, dar razones y hechos para apostar por ello, mostrando casos de uso práctico. Hacer pedagogía y la democratización del dato son dos tareas más importantes que nunca, hay que hacer entender que big data no es cualquier Excel un poco largo. El CDO debe estar más cerca que nunca de la alta dirección, debe reportar directamente”. 

En opinión de Gil, estamos avanzando hacia una nueva etapa, la del poder cognitivo. El uso de la IA no solo transformará las operaciones de las compañías, pero hay que tener en cuenta que, a corto plazo, los retos éticos de la gestión del dato pueden llegar a definir el éxito o el fracaso de esta tecnología.

De las numerosas áreas que se verán afectadas por la ética del dato, Gil destaca 4 por su urgencia e impacto inmediatos: privacidad, discriminación, responsabilidad y transformación del entorno laboral. Hoy es más urgente que nunca reflexionar sobre ello porque, en este sentido, Gil destaca que “ya tomamos muchas decisiones sin saber que las estamos tomando. Uno de los ejemplos más conocidos que nos hace reflexionar sobre ello es la Moral Machine del MIT. Todos tenemos en mente el dilema sobre a quién debería atropellar un coche autónomo sin frenos en distintos escenarios moralmente desafiantes”.

Figura 2: Moral Machine del MIT
Figura 2: Moral Machine del MIT


¿Quién decide qué es correcto y qué no lo es cuando se trata de la gestión del dato? Esta pregunta es una de las primeras que puede surgirnos cuando abordamos la cuestión, y de las más complejas. La economía es global, pero la ética, no. Volviendo con el experimento del MIT como ejemplo, las respuestas varían en función de las culturas: la occidental favorece a los ciudadanos más jóvenes, mientras que la japonesa da preferencia a sus ancianos; otras, como las nórdicas, son más neutras y respetuosas con la ley (¿cruzó el peatón con el semáforo en rojo?). No existe un marco ético global y estándar para todos los países, por lo que navegar en las turbulentas aguas de las “zonas grises” es especialmente desafiante para las grandes empresas. No obstante, los marcos regulatorios facilitarán la toma de decisiones y proporcionarán un compás moral a las empresas.

“Los informes de las consultoras indican que generaremos un volumen de negocio cercano a los 1,2 trillones de dólares gracias a la IA este año, una cifra que se multiplicará por 3 en 2020”.

Por otro lado, ¿quién debe asumir la responsabilidad de las decisiones automatizadas? Ya existen ejemplos reales de aplicaciones punteras de la IA, pero para Gil, “cabe preguntarse si somos conscientes de los riesgos que asumimos”. Existe un acrónimo que está ayudando a definir algoritmos que respeten los valores morales más extendidos: FATE (justos, responsables, transparentes y éticos, por sus siglas en inglés).

Asimismo, el impacto en el trabajo será notable, especialmente en el más repetitivo. Surgirán nuevos trabajos y otros puestos deberán reciclarse. Colaboraremos más con las máquinas, lo que abre nuevas preguntas: ¿tienen derechos las máquinas? ¿Deben pagar impuestos? Ya existen grupos de trabajo a distintos niveles que tratan de dilucidar (e identificar) cuestiones como estas. Una de las claves para avanzar, señala Gil, es “asegurarnos de que cualquier avance en IA tenga un diseño responsable. Es decir, que en cada paso que demos, nos aseguremos de que no contradice nuestro marco ético”.


El Club de Chief Data Officer Spain es la primera comunidad de CDOs en España. Si quieres conocer más sobre el Club, escribe a: clubcdospain@outlook.es 

No comments:

Post a Comment