A continuación transcribo el artículo "Por qué es importante el rol de ISACA para Ética en el Data Science?" publicado por el prof.
Diego Vallarino para la revista Percepciones de
ISACA Capítulo Montevideo en Octubre de 2019.
Omnipresentes e invisibles, los algoritmos determinan cada vez más nuestro día: qué películas nos propone Netflix o cuánto nos cuesta una reserva de hotel. Gracias a ellos se pueden gestionar cantidades enormes de información de manera más eficiente. Pero también pueden terminar discriminando por cómo han sido desarrollados.
Un ejemplo que da Marta Peirano en El enemigo conoce el sistema es el de David Dao, un pasajero al que sacaron a rastras de un avión en abril de 2017. Había pasado todos los controles de seguridad en el aeropuerto de Chicago y estaba esperando el despegue cuando las azafatas llegaron a echarle. Se negó y los agentes de seguridad terminaron sacándolo por la fuerza. United Airlines había vendido demasiados billetes y sobraba alguien. Un algoritmo había determinado que fuera Dao y no otro el expulsado. Él no era tan valioso para la aerolínea como un titular de la tarjeta de viajero frecuente. ¿Usaron también datos socioeconómicos, religiosos o raciales? Se desconoce, porque el algoritmo es secreto.
Hoy las empresas, e incluso los gobiernos, se han dado cuenta que tienen un activo muy importante dentro de sus bases de datos, la Data. Esta data permite a las empresas mejorar su competitividad. Por su parte, los gobiernos están entendiendo que el potencial de disponer de datos de los ciudadanos facilita la posibilidad de mejorar la calidad de vida de las personas, al igual de lo que está pasando en las empresas. Ya sea para brindar un conjunto de servicios, como para mejorar el diseño de las ciudades, la seguridad, entre otras tantas cosas que hacen al derecho humano de las personas.
Para lograr esto, tanto el sector privado como el sector público debe comenzar a profundizar más cómo gestiona este activo tan determinante. En tal sentido, en la última década la palabra algoritmo, un concepto que existe desde la época de los babilonios, ha comenzado a tomar grandes dimensiones en nuestro diario vivir. ¿Son los algoritmos realmente una cadena numérica solamente o inciden en el desarrollo ético del comportamiento humano? ¿Exclusivamente hacen su trabajo (en el periodismo sería ‘informar’) o inciden en la conformación de la opinión pública?
A nadie se le escapa la cantidad de algoritmos que pueblan nuestras vidas. Son ingentes. Los encontramos en multitud de situaciones cotidianas. Cantidad de desarrollos algorítmicos los vemos presentes a diario no solo en los ordenadores, en nuestros vehículos, en electrodomésticos, en los call centers, en la megafonía, en los sistemas de vigilancia…
Además, la inteligencia artificial (IA) se está introduciendo en un creciente número de tareas realizadas hasta la fecha por humanos. En ese nuevo escenario aparece, por ende, el machine learning donde las máquinas (el software que incorporan) van aprendiendo de sus errores, capacitándose mejor para próximas intervenciones. Es lo que Sherry Turkle ha definido como el ‘horizonte robótico’.
Quizás el concepto máquina no sea el adecuado para definir a todo ese complejo mundo de los robots y los cobots (cuando tienen entidad física), pero tenemos los denominados asistentes personales inteligentes. ¿Quién no conoce a Alexa, Siri o Cortana, por ejemplo?) o también a los bots sociales y los chatbots (cuando se trata exclusivamente de concretar paquetes informáticos). Todos ellos albergan algoritmos que permiten múltiples funciones. Incluso la interacción humana a través del lenguaje.
Muchos algoritmos se han diseñado bajo unas determinadas concepciones éticas… o en ausencia de ellas. Y ello es potencialmente peligroso. Estamos frente a un nuevo contexto de organización donde la sociedad necesita establecer un conjunto de reglas para gestionar la dinámica de esas creaciones y su afectación al comportamiento humano y al desarrollo social.
Ya se han alzado algunas voces que tratan de concretar jurídicamente la existencia de las personas electrónicas (por contraposición a las físicas y a las jurídicas), de tal manera que puedan ser dotadas de derechos y deberes. Ello posibilitaría, por ejemplo, la creación de impuestos y obligaciones tributarias, pero también la obligación de sus creadores de desarrollar algoritmos ‘con alma’, que respeten ciertas normas éticas, presentes en cada sociedad.
¿Dónde está la línea que separa un buen de un mal uso o abuso del poder de los datos y los algoritmos?, se pregunta Rachel Botsman, madre filosófica de la economía colaborativa, en su último libro Who can you trust? How technology brought us together and why it might drive us apart. Y todo esto antes de que saltara el escándalo Facebook por el uso de los datos de sus usuarios para, supuestamente, influir en campañas políticas.
La ética debe estar implícita en todo el ciclo de vida del Big Data.
Empezando por su recolección: por ejemplo, ¿son válidos los datos oficiales de una población si deliberadamente se ha excluido cierta etnia? Siguiendo por lo más complejo, el algoritmo utilizado: ¿Puede una simple traducción automatizada pecar de machista? ¿Qué validez tendría un juicio apoyado en la alta probabilidad de volver a delinquir que apunta el rating criminal de ese individuo [sistema muy utilizado en Estados Unidos] según unos datos sesgados? Estos ejemplos ilustran que es un error pensar que, frente a la subjetividad humana, los datos, el Big Data, son siempre acertados y objetivos. Y no necesariamente. Los datos pueden estar sesgados, mal combinados, manipulados o, simplemente, mal interpretados porque se basaron en algoritmos que resultan erróneos.
Pero vayamos al último eslabón de la cadena, el más sutil y poco evidente, el propósito de los datos. ¿Cómo califican el uso de datos personales en redes sociales para influir en campañas políticas? ¿Y cambiar los algoritmos para influir en las emociones de las personas, como reveló este experimento que difundió Facebook en 2014?
“Las organizaciones que actúen con ética y transparencia en el uso de los datos tendrán una valoración positiva de la sociedad. Y al contrario, quienes no se rijan por esos parámetros sufrirán una enorme pérdida en su reputación”, señala Eva García San Luis, socia responsable de Data & Analytics de KPMG. Y subraya que, “en la era digital, la confianza en una organización no se mide solo por su marca, líderes, valores o empleados. También, y cada vez más, por su forma de gobernar y gestionar los datos, los algoritmos, las máquinas…”.
Un ejemplo de lo que está pasando en el mundo lo puede ejemplificar Francia. En el Senado francés se está debatiendo estos días si se debe exigir por ley que la Administración explique los algoritmos que utiliza en sus aplicaciones. Miles de estudiantes se quejan de que la plataforma que gestiona su admisión en la enseñanza superior, Parcoursup, ha sido programada con criterios sesgados. Supuestamente, favorece a los estudiantes con más información y, en definitiva, con más recursos. Y, aunque hace dos años que la Ley Digital exige la transparencia algorítmica en Francia, esta no se da ni por parte del Gobierno ni de las empresas.
A modo de cierre, en este marco de desarrollo de sistemas inteligentes como lo son los algoritmos de aprendizaje dinámico, los profesionales que son integrantes del capítulo uruguayo de ISACA (Systems Audit and Control Association), deben ser conscientes que tienen mucho para aportar en esto de entender cómo se desarrollaron esos algoritmos, qué data usan, cuáles son los objetivos que buscan, y que sesgos tienen implícitamente dentro de los outputs. Esto redundará en un mayor valor para la ciudadanía y para las empresas en su conjunto. Igualmente, seamos claros, queda mucho por hacer…
.
.