Los Algoritmos de las Redes Sociales
Por qué los algoritmos de las redes sociales son cada vez más peligrosos
Imagen Foto: Photo by Dapo Oni on Unsplash, Photo by Hans-Peter Gauster on Unsplash, Photo by Jacob Miller on Unsplash
Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingeniería artificial (IA) durante décadas. Pero también es uno de sus críticos más conocidos, al menos del modelo de IA al que todavía ve como “estándar” en el mundo. Rusell ha advertido que el modelo predominante de IA es, en su opinión, una amenaza para la supervivencia de los seres humanos. Pero, a diferencia de las tramas de películas de Hollywood sobre el tema, no se trata de que estas tecnologías se vuelvan conscientes y se vuelvan contra nosotros. La principal preocupación de Russell es la forma cómo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible, básicamente a cualquier costo.
El genio salió de la botella
Para explicarle esto a BBC News Brasil, Russell utiliza la metáfora de un genio de una lámpara que cumple los deseos de su maestro. “Le pides al genio que te convierta en la persona más rica del mundo, y así sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran”, dice. “(En IA) construimos máquinas con lo que yo llamo los modelos estándar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor solución posible. Y luego llevan a cabo esa acción”. Incluso si esta acción es, en la práctica, perjudicial para los humanos, argumenta.
“Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan”. Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los últimos días con el colapso global que afectó a Facebook, Instagram y WhatsApp durante unas seis horas. La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor información posible sobre ese usuario y proporcionándole contenido que se adapte a sus preferencias para que permanezcan conectados por más tiempo. Incluso si esto se produce a expensas del bienestar del usuario o la ciudadanía global, continúa el investigador.
Imagen Foto: Photo by Marc-Olivier Jodoin on Unsplash, Photo by Marvin Meyer on Unsplash
“Las redes sociales crean adicción, depresión, disfunción social, tal vez extremismo, polarización de la sociedad y, tal vez contribuyen a difundir desinformación”, señala Russell. “Y está claro que sus algoritmos están diseñados para optimizar un objetivo: que las personas hagan clic, que pasen más tiempo enganchadas con el contenido”, continúa. “Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad”.
No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o “arreglados”, por lo que siguen trabajando para optimizar su objetivo, indistintamente del daño colateral. “(Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics”. Estas críticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testificó ante una audiencia del Congreso de Estados Unidos. Haugen dijo que las redes sociales “dañan a los niños, provocan divisiones y socavan la democracia”.
Facebook ha reaccionado diciendo que Haugen no tiene suficiente conocimiento para hacer tales afirmaciones.
IA con “valores humanos”
Russell, a su vez, explicará sus teorías a una audiencia de investigadores brasileros el próximo 13 de octubre durante una conferencia de la Academia Brasileña de Ciencias de forma virtual.
El investigador, autor de “Compatibilidad Humana: Inteligencia artificial y el problema del control“, es considerado pionero en el campo al que él llama “inteligencia artificial compatible con la existencia humana”.
“Descubrir qué causa la polarización”
Russell señala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curaduría del contenido visto por los usuarios. “Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI según sus siglas en inglés), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos”, dice Russell. “Lo principal es hacer experimentos con grupos de control, ver con las personas qué está causando la polarización social y depresión y (ver) si al cambiar el algoritmo mejora eso”. “No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas”, prosigue Russell. “(El problema) es la forma cómo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminación. El modo en cómo el algoritmo escoge qué colocar en la pantalla parece basarse en métricas que son perjudiciales para las personas“. “Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas”, sentencia. No habrá una respuesta única sobre qué es “beneficioso”. Por lo tanto, argumenta el investigador, los algoritmos tendrán que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada fácil. “De hecho, esta (área de las redes sociales) será una de las más difíciles donde se pondrá en práctica este nuevo modelo de IA”, afirma. “Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulación aceptable e inaceptable“.
Imagen Foto: Photo by Markus Spiske on Unsplash
Icono Redes Sociales: <a href=”https://www.freepik.es/vectores/logo”>Vector de logo creado por rawpixel.com – www.freepik.es</a>