La ética de los algoritmos en la era Big Data.

Grosso modo, un algoritmo viene a ser un conjunto reglado de operaciones matemáticas capaces de analizar distinto tipo de información y resolver problemas. Se diseñan para interpretar una serie de datos aplicándoles unas operaciones preestablecidas. En algunos casos, para obtener el resultado previamente determinado, en otros con las claves suficientes para que aprendan por sí mismos. Los algoritmos han sido de uso común en ámbitos diversos como el de ingeniería, ciencias sociales, empresa o medicina, resultando especialmente útiles entre otros aspectos a la hora de interpretar información y realizar simulaciones, contribuyendo de esta manera a una mejor toma de decisiones. No obstante, si existe algún fenómeno en la historia que haya extendido su uso de forma exponencial es el de la transformación digital de la sociedad en la que vivimos actualmente.

En el ámbito doméstico, la información que obtenemos en una búsqueda por internet y/o los productos que visibilizamos o comparamos, el resultado del cálculo de una ruta de GPS, recomendaciones de decisiones de inversión, los archivos que hemos comprimido en nuestro ordenador, la decisión de si se nos concede un crédito o no, las oportunidades de trabajo que nos llegan a la bandeja de entrada… El etcétera es tan largo que daría para un tomo. Todos estos resultados llevan algoritmos por detrás.

En el ámbito empresarial, el concepto de industria 4.0 extiende los algoritmos a la totalidad de funciones de la empresa, comenzando por las operaciones (producción automatizada, detección de problemas de calidad, mantenimiento preventivo, etc.), marketing (Orientación y análisis del impacto de campañas publicitarias, cálculos de descuentos, etc.) Gestión de personas (selección de perfiles y candidatos/as en la contratación de personas), finanzas (reportings económico / financieros automáticos, etc). Resumiendo, que los tenemos por todas partes. Sin duda es un gran avance, pero hay que reconocer que tiene un punto inquietante incuestionable.

El año pasado la científica de datos americana Cathy O´Neill publicó un revelador libro que se traduce a algo como “Armas matemáticas de destrucción”. Es un análisis que expone y ahonda en los riesgos e implicaciones de confiar en exceso en esos algoritmos que cada día influyen y están más presentes en distintos aspectos de nuestra vida.

Porque ¿Quién nos asegura que los algoritmos están definidos adecuadamente, o no tienen vicios ocultos? ¿Cómo sabemos que un algoritmo es justo? Si una parte importante para su concepción es el histórico de datos, y si solo lo diseñan pocas personas (la mayoría no podemos entenderlos)… ¿no hará que repliquemos problemas o patrones del pasado? ¿En qué medida los científicos de datos incorporan el componente ético en su diseño? ¿No deberíamos exigir cierta responsabilidad?

Lo verdaderamente inquietante de todo esto es que un progresivo número de cuestiones que afectan a nuestra vida diaria está condicionada por fórmulas que ni conocemos, ni entendemos, y por tanto difícilmente podemos rebatir. No es por ser agorero, pero el escenario actual de empresas privadas con fines privados construyendo algoritmos que nadie entiende facilita una falta de transparencia en su diseño, uso inapropiado, cuando no poco ético.

Más allá de los riesgos de la codicia, el engaño, y otros comportamientos dolosos que llevan a una utilización interesada, se está constatando que los algoritmos no son infalibles. Un estudio reciente de la consultora Deloitte al respecto afirma que el origen de los errores en los algoritmos se pueden identificar en tres frentes. 1) en los datos que procesará la ecuación en clave de inconsistencias muestrales, irrelevancia, obsolescencia y/o inexactitud de los mismos, 2) en el diseño del propio algoritmo  mediante asunciones o criterios sesgados, intereses espurios o técnicas de modelización inapropiadas, o 3) en las decisiones derivadas de los resultados obtenidos extrayendo interpretaciones erróneas o haciendo un uso inapropiado de los resultados.

Todo parece indicar que será fundamental desarrollar 2 campos que integren por una parte un marco legislativo que regule estas prácticas y por otro una apuesta para desarrollar conocimiento a nivel de país. El primero será el de ciberseguridad, según ISACA definida como “Protección de activos de información, a través del tratamiento de amenazas que ponen en riesgo la información que es procesada, almacenada y transportada por los sistemas de información que se encuentran interconectados”. El segundo, y casi tan importante como el primero deberá ser la ciber-ética. La regulación legal en este ámbito está aún en sus inicios, pero es y será absolutamente necesaria. Según el citado informe, actualmente solo se circunscribe a ámbitos limitados relativos a la gestión de capitales y a los test de estrés del sector bancario. Indudablemente, es un aspecto que es fundamental abordar a nivel global. Como mínimo, a nivel europeo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *