None

Algoritmo, divino tesoro

¿Qué pasa cuando los programas orientan las decisiones de la vida cotidiana y laboral? Inteligencia artificial, big data y Netflix, en una entrevista para pensar si el futuro ya llegó.

Para El Universitario

Hace unos pocos años, allá por los 90, un estudiante de programación leía un manual del lenguaje Turbo Pascal que decía que un algoritmo “es un método para resolver un problema mediante una serie de pasos precisos, definidos y finitos”. Intentaba recordar la definición para aprobar el examen. Aprendió, aprobó y sigue recordando esas palabras del libro de Luis Joyanes Aguilar.

El estudiante creció, tuvo hijos, formó una familia. “Papá no entres a Netflix con mi usuario que me desconfigurás el algoritmo y me termina recomendando cualquier porquería”; “tu lista de Spotify sí que te conoce, a mí el algoritmo me tira siempre lo mismo”; “¿viste los últimos videos de Dross en YouTube?, ¿no te salen?, entrená mejor a tu algoritmo”. Solo algunas conversaciones que se dan en la familia, que incorpora no solo nuevos dispositivos y plataformas, sino también un nuevo lenguaje.

Pero, ¿cómo llega el término algoritmo a la vida cotidiana, a la prensa, al trabajo? ¿Por qué alguien que no leyó el libro de Joyanes Aguilar usa algoritmo como término habitual?

El docente de la UNNOBA e investigador en aprendizaje automático, Juan Pablo Tessore, explica que si bien el concepto tradicional de algoritmo no ha cambiado, sí hay que entender que se trata de “dos tipos de algorimos distintos”. “Antes el programador escribía un conjunto finito de instrucciones para resolver un problema, y punto. En cambio los algoritmos que usan Google o Netflix se basan en inteligencia artificial, y son algoritmos a los cuales el programador no les dice explícitamente ‘qué hacer’ sino que se les especifica un conjunto de parámetros que el algoritmo debe tener en cuenta para luego, y a partir del análisis de un conjunto muy grande de datos, hacer inferencias”.

Leonardo Esnaola, también docente de la UNNOBA e investigador del área Aprendizaje de Máquina, agrega que “los algoritmos inteligentes surgen en los años 60, pero en ese momento no había la suficiente cantidad de datos ni tampoco un hardware (computadoras) que pudiera hacer operaciones tan demandantes de cálculo como las actuales”. Claro que el abaratamiento de los costos en la informática y, sobre todo, la enorme y gigantesca base de datos que aportó internet derribaron esas dos barreras del pasado reciente. “Antes eran muy pocas las empresas que guardaban datos porque la tarea tenía un costo muy alto e incluso no se sabía qué valor podrían tener esos datos”. Hoy ya queda claro que los datos son “el nuevo oro” del siglo XXI: todos guardan datos (o al menos eso se supone) de todo tipo y creen que en algún momento se usarán. No se piensa mucho si esas recopilaciones son o no “legales”, pero se guardan.

La gran diferencia que marcan los docentes es la irrupción de la inteligencia artificial. Destacan que existe un paradigma tradicional en la programación en el cual se escribe cómo hacer algo, que la computadora luego ejecuta. Pero a partir de la llegada de los nuevos tipos de algoritmos, la computadora puede “aprender” a determinar mediante ejemplos. “Es como una metaprogramación en la que se le dice al algoritmo cómo tiene que aprender para hacer una determinada tarea”. Es por eso que también se usa la expresión “aprendizaje automático”.

Mientras nos conectamos utilizamos plataformas y servicios de todo tipo. ¿Donde están esos datos? “Data center”: hoy la nube es sinónimo de datos. Estos lugares almacenan las enormes cantidades de información generada.

Una batalla desde el lenguaje

Otro término que se ha extendido desde el terreno informático es el de inteligencia artificial. Una palabra humana, quizás demasiado humana, como inteligencia comienza a estar asociada a lo maquínico y quizás por eso genera temor, como si se tratara de un verdadero Frankenstein del siglo XXI. Entonces, ¿por qué usar el término inteligencia? ¿No podría usarse otro, como “super herramientas cognitivas”, o similares, que marquen una divisoria entre humano y máquina?

“Las computadoras necesitan una mayor cantidad de ejemplos, por eso la necesidad de reunir gran cantidad de datos”.

Para Esnaola es correcto el uso del término inteligencia porque “lo que hace el programa es asimilable al aprendizaje humano, es decir que la computadora sigue un algoritmo de aprendizaje, un cómo, que se basa en ejemplos, y lo hace de modo similar a los humanos”. Y destaca: “Si yo te muestro cómo resolver una tarea con un par de ejemplos, vos aprendés. El problema con las computadoras es que necesitan una mayor cantidad de ejemplos, por eso la necesidad de reunir gran cantidad de datos. La inteligencia está puesta ahí, en el aprendizaje, que pueda hacer cosas que vos, en un inicio y como sucedía con los algoritmos tradicionales, nunca le indicaste”.

Esta utilización del término “inteligencia” había llevado a los pioneros de la computación a un proyecto sin salida, al menos por ahora: lograr una inteligencia artificial completa, incluso con una conciencia. “Ese tipo de inteligencia no se ha logrado, y está muy pero muy lejos de lograrse, aunque lo que sí se ha logrado son estos algoritmos que permiten automatizar un conjunto de tareas que antes tenían que ser realizadas manualmente por una persona”, agrega Tessore. Por eso es que hoy la inteligencia artificial agrupa al gran conjunto de algoritmos que implican un aprendizaje de tipo automático.

De la inteligencia a la realidad artificial

“Hay obras de arte creadas por computadoras”, afirma Esnaola, no sin generar un escalofrío. De alguna manera la “inteligencia” maquínica traspasa los límites de lo matemático y se introduce -o intenta hacerlo- en el terreno de lo sensible y lo creativo, hiriendo el ego humano otra vez. “Hay programas, algoritmos, que pueden crear obras que no existían previamente, como en la pintura. Otros pueden leer música, fragmentos, y crear a partir de ahí. Incluso se han hecho experimentos con obras de William Shakespeare como patrón de aprendizaje”, agrega el docente Tessore.

¿Se puede identificar si es creación o simple mezcla probabilística de variables encontradas? Seguros de la potencia algorítmica nuestros docentes afirman: “Una cosa es que se basó en cómo trabaja o compone un autor para hacer algo parecido, y otra es basarse en la forma de crear de muchos autores”. Es decir que ellos apuntan a una verdadera potencia creadora de la máquina. Algo digno de ser discutido pero que ya comenzó.

De hecho ese comienzo lo marca uno de los proyectos más emblemáticos en relación a la creatividad de la inteligencia artificial, el denominado Generative Adversarial Network. Según explican en su web “son un colectivo de amigos, artistas e investigadores impulsados por un conjunto de preguntas y sensibilidades comunes alrededor de la llegada de la inteligencia artificial y el aprendizaje de las máquinas”. Vinculan la inteligencia artificial con el arte y tienen el logro de haber creado la primera pintura hecha por inteligencia artificial vendida en una subasta de la emblemática casa Christie’s por la módica suma de 432 mil dólares.

Cómo pensar el algoritmo

Desde el sentido común podría pensarse que para utilizar o generar algoritmos inteligentes se necesitan robots o supercomputadoras. Los docentes de la UNNOBA destacan que “todo depende de la complejidad de la tarea que se quiera realizar”. Lo más importante para ellos es “definir sobre qué datos se va a trabajar y a partir de ahí establecer la tarea”. Clasificaciones, características relevantes y qué se descarta, en qué va a trabajar el algoritmo. “Teniendo los datos y las características relevantes, le damos al algoritmo un conjunto de parámetros a través de los cuales realizar el aprendizaje: ahí comienza el entrenamiento”. Y, como en la escuela, se le hacen las consultas para saber qué tan bien aprendió el señor algoritmo.

Esnaola y Tessore se encuentran embarcados en un proyecto de investigación que forma parte de su Doctorado en Informática. Se trata de reconocer emociones en fragmentos de texto publicados en las redes sociales, para automatizar tareas de análisis que a una persona le pueden llevar miles de horas de lectura. Sobre todo las redes sociales son el gran campo de datos sobre el que se despliegan este tipo de proyectos ya que los datos florecen y son los propios usuarios quienes voluntariamente todos los días brindan sus opiniones y difunden su vida.

El uso extendido de los dispositivos genera grandes cantidades de datos para ser almacenados y luego analizados por Inteligencia Artificial.

Vida privada y huella digital

Sobre el territorio de los datos se despliega también el gran conflicto. Ese nuevo oro intangible de bits tiene una situación legal difusa. Dice Esnaola: “En Argentina tenemos leyes de protección de datos personales, pero como esta tecnología es internacional las barreras de la legislación son grises, ¿dónde aplico la ley, donde residen los datos, donde se obtienen los datos, donde se presta el servicio? Estamos hablando de derecho internacional”.

A partir de los escándalos que cada tanto rodean a las filtraciones de datos cabe preguntarse ¿qué derechos tenemos como usuarios sobre esas “huellas” que dejamos al entrar a internet?, y también, ¿para qué propósitos pueden ser utilizadas? Tessore recuerda algo que sigue siendo central, el acuerdo de los términos y condiciones de cada servicio. “En algunos casos estás intercambiando tus datos por un servicio que es gratuito, y uno voluntariamente al aceptar el acuerdo entregás la información. Lo que debería suceder es que los Estados donde las empresas funcionan puedan determinar qué pueden y qué no pueden recopilar desde una empresa y también qué uso se le puede dar a esos datos”.

El bien y el mal definen por penal

La inteligencia artificial de alguna manera se basa en la creación de sesgos, categorías de personas, para la creación de recomendaciones. Sin embargo están quienes advierten en los peligros que trae este tipo de creaciones, la construcción de prejuicios e incluso la discriminación. Esnaola explica algo que por obvio no deja de ser preocupante: “Los algoritmos están aprendiendo lo que nosotros les enseñamos. Si un equipo de personas se basa en prejuicios para entender o hacer clasificaciones, la tecnología termina aplicando eso mismo”. Incluso hay ejemplos alarmantes como el de “Tay, la robot racista y xenófoba de Microsoft”, un proyecto que duró solo 24 horas online ya que el bot  (programa informático que efectúa automáticamente tareas repetitivas a través de Internet) comenzó a abusar de las capacidades de conversación para “responder de forma inapropiada” a los usuarios de Twitter.

Tessore agrega que “hay tareas críticas en las que siempre debería estar la intervención de una persona que supervise al algoritmo o de un ente regulador que determine qué puede y qué no hacer un algoritmo. Podemos conectar un algoritmo inteligente que analice textos al celular de una persona y decidir si sus intercambios son inapropiados o no en relación a algo, como bullying o cualquier otro tema”, pero el algoritmo en estos temas puede ser un recomendador y “en ningún caso quien tome una determinación final”.

Existen posibilidades extremas, como la aplicación de inteligencia artificial a armas (tema abordado en la entrevista con Guillermo Simari en este medio). Los riesgos que implican estos desarrollos van en el sentido de lo que los docentes marcan como “decisiones críticas”. “El algoritmo no es bueno o malo por sí mismo, no se ha logrado que un algoritmo tenga conciencia y diga ‘este profesor es malo y le voy a pegar un tiro’. Por lo tanto lo que consideramos es que, en tareas no críticas y dentro de los marcos de las regulaciones legales, se permita a los algoritmos funcionar de manera autónoma. Un ejemplo de ello serían las sugerencias de videos de Youtube”, indica Tessore.

Y Esnaola agrega en este sentido: “Podés programar un Dron para que vaya a una coordenada y tire una bomba, y eso se puede hacer sin un algoritmo inteligente. Eso se hace con programación. Pero otra cosa es decirle al Dron que sobrevuele una zona y que, basado en una serie de datos que quiero que recoja, elija una resolución y la ejecute. Ahí le estás dando la ‘responsabilidad’ al algoritmo, y eso es lo que no tiene que pasar, sobre todo en tareas críticas en las que está implicada la vida humana”.

La “ciudad inteligente”, el salto en calidad productiva que puede aportar el desarrollo de la Inteligencia Artificial.

Más allá de la distopía

–Tanto desde la prensa, como desde la literatura y la crítica social se sopesa el horizonte distópico por sobre los beneficios de la inteligencia artificial. Ustedes son programadores y es su trabajo desarrollar altoritmos inteligentes, ¿qué utopías o beneficios podemos esperar del desarrollo de estas herramientas, y así dejar atrás las visiones macabras y pesimistas del estilo Black Mirror?

Tessore –En primer lugar destacamos que se puede dar un salto importante en la productividad. Por ejemplo, si un algoritmo puede procesar imágenes para causas judiciales, le da mucho más alcance a la Justicia en relación a la cantidad que puede analizar en comparación con un humano. En segundo lugar, si se combina la Inteligencia Artificial con la robótica podremos utilizar la tecnología en ámbitos que son peligrosos, hostiles o imposibles para los humanos, desde sitios radioactivos a los insalubres o bajo tierra. Creo que junto a la robótica nos da una seguridad para la vida humana en no intervenir en esas tareas de riesgo alto.

Esnaola –Creo que las tareas también van a ir surgiendo de forma creativa, de modo que se va a ir ampliando esta tecnología para mejorar tanto condiciones de vida, como de seguridad o en la economía, por ejemplo. Hay muchas áreas en las que se puede intervenir. Sin embargo esos algoritmos van a ser tan buenos como el entrenamiento que se haga de ellos y van a ser tan confiables como el trabajo que tengan por detrás. Y siempre tienen que haber personas y definiciones éticas que intervengan en esos procesos de entrenamiento. Pero también está lo individual, lo que cada uno quiera para su vida: ¿cuánto confiamos en la tecnología, cuánto queremos que haga por nosotros? Ahora en Gmail hay sugerencia de texto mientras se escribe, ¿eso es bueno o malo? ¿Google se está “metiendo” en tus textos? Cada uno, cada persona humana, tendrá que aprender a tomar sus decisiones también.

PERFILES:

Leonardo Esnaola es egresado y docente de la UNNOBA en las asignaturas Gestión de Proyectos y Sistemas Inteligentes en las carreras de Informática. Es también investigador del Instituto de Investigación y Transferencia de Tecnología de la UNNOBA y doctorando en Informática en la Universidad Nacional de La Plata. Se especializa en aprendizaje automático.

Juan Pablo Tessore es egresado de la UNNOBA y docente en la asignatura Lenguajes de Programación y Compiladores en la UNNOBA. Es investigador del Instituto de Investigación y Transferencia de Tecnología de la UNNOBA y becario doctoral de la CIC de la provincia de Buenos Aires y cursa el doctorado en Informática en la Universidad Nacional de La Plata. Se especializa en aprendizaje automático.

 

COMENTARIOS