La agregación colectiva mediante promedios estadísticos, algoritmos y curadores

agregación

Los llamados «mecanismos de agregación» son los que hacen de pegamento para convertir un conjunto disperso de preferencias individuales en un juicio o decisión colectiva. Aquí se presentan tres de ellos: 1) los promedios estadísticos, 2) los algoritmos, 3) los curadores.

Sabes que en este blog nos gusta hacer pedagogía sobre conceptos y metodologías para entender a la inteligencia colectiva, así que seguimos con el seriado que prometí publicar sobre los llamados «mecanismos de agregación» que, como ya expliqué, son los que hacen de pegamento para convertir un conjunto disperso de preferencias individuales en un juicio o decisión colectiva. Recuerda, siempre que un grupo quiera razonar, aprender, crear, resolver problemas o tomar decisiones en común, requerirá —de forma consciente o inconsciente— alguno de estos mecanismos para negociar el resultado colectivo.

En entradas anteriores ya hablé del consenso (comparándolo con la votación) y de la emergencia como lógica compleja y autoorganizada de generar agregados colectivos. Hoy nos daremos un paseo por otros tres mecanismos: 1) los promedios estadísticos, 2) los algoritmos, 3) los curadores. Vamos allá…  

1. Promedios estadísticos

Cuando el reto colectivo consiste en estimar un determinado valor numérico (por ejemplo, las ventas que va a conseguir una empresa en el año o el porcentaje de votos que va a obtener una candidata en las próximas elecciones), el procedimiento de agregación al que suele recurrirse es el cálculo del promedio estadístico de las estimaciones realizadas individualmente por los integrantes del colectivo.

Este es el territorio de la «sabiduría de las multitudes» de James Surowiecki. La idea de base es la siguiente: si los errores individuales son aleatorios y no están sesgados sistemáticamente en ninguna dirección, la ley de los grandes números los compensa. Esto convierte en esencial que los participantes realicen sus estimaciones de forma independiente.

Junto al famoso ejemplo del buey de Francis Galton, hay otro recurrente de este mecanismo de agregación. Lo diseñó el economista estadounidense Jack L. Treynor que, siendo profesor de cálculo financiero, realizó en clase un experimento para medir la capacidad de sus alumnos de estimar cuántos caramelos había en un tarro. Cada uno anotó su estimación en un papel y luego el profesor calculó la media. En el bote había 850 caramelos, y el cálculo colectivo fue de 871. Solo uno de los cincuenta y seis participantes consiguió acercarse más. Si el experimento se hubiera repetido sucesivas veces, habría sido altamente improbable que una misma persona hubiese mejorado siempre el resultado colectivo. La superioridad del grupo sobre cualquiera de sus miembros por separado se hace patente a lo largo del tiempo.

TripAdvisor, Booking o Amazon son buenos ejemplos de esto porque emplean promedios estadísticos para ofrecer valoraciones colectivas de sus productos o servicios. Los usuarios, según su grado de satisfacción, les asignan una puntuación en forma de estrellas, y el sistema calcula la media de todas las valoraciones. Sin embargo, en estos casos, sí existe cierta exposición a la influencia social, ya que la gente vota u opina teniendo la posibilidad de ver otras votaciones u opiniones.

La utilidad de este sistema en algunas situaciones es indiscutible, y resulta siempre muy rápido y resolutivo. Pensemos, por ejemplo, en el siguiente reto: seleccionar 3 ideas de 20. El grupo decide establecer una escala de valoración. Cada miembro asigna, por separado, su puntuación para cada idea. Se recopilan todas y se calculan los promedios, que permitirán elaborar un ranking que refleje, de forma agregada, las preferencias colectivas.

2. Algoritmos

Según el Diccionario de la Real Academia, un algoritmo es «un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema»; en este caso, extraer datos de un colectivo para obtener un agregado significativo. Los algoritmos pueden presentar diferentes grados de complejidad pero lo que singulariza a esta estrategia es que la agregación se hace de forma automática con la ayuda de un dispositivo externo.

Crear una playlist colectiva de música con Spotify es un ejemplo muy simple de agregación algorítmica. Mucho más sofisticado es el algoritmo que emplea Google para ordenar los resultados de las búsquedas, que se esculpe mediante la ponderación de los votos implícitos de los usuarios al pulsar los enlaces, entre otros factores.

Sin duda podemos discutir la legitimidad de los criterios que emplea Google para definir su algoritmo, y la opacidad que rodea al proceso, pero lo cierto es que logra extraer significado de masas ingentes de datos que reflejan preferencias. Con todos sus defectos y distorsiones, contribuye a recuperar de un modo ágil la información. Más allá del orden en la presentación de resultados, Google dispone de otras formas de agregación algorítmica que también producen inteligencia colectiva. Por ejemplo, si uno escribe en el buscador un término con algún error, el programa lo detecta y nos propone alternativas que infiere mediante la agregación de los datos que le proporcionaron las búsquedas de otras personas que la escribieron antes que nosotros.

Una nube de tags es otro ejemplo claro (y sencillo) de inteligencia colectiva obtenida algorítmicamente. En este caso, el algoritmo, sin participación ninguna de los usuarios, extrae el peso de las palabras que componen un texto para obtener una representación visual en forma de nube, donde el color, el grosor y el tipo de fuente evidencian la importancia relativa que el grupo ha dado a cada concepto.

Un último ejemplo: los feeds son aplicaciones que seleccionan contenidos digitales de forma automática, sin la participación de editores humanos; los escogen de distintas webs y los guardan en un solo sitio, donde se agregan las aportaciones de distintos autores.

3. Curadores y sintetizadores

En el extremo opuesto a los algoritmos, de funcionamiento automático, están los curadores y los sintetizadores: personas que se encargan de extraer y organizar los contenidos que consideran más valiosos de entre los producidos colectivamente.

El grupo delega en unas personas, elegidas con el criterio que sea, para que sean ellas las que capturen la opinión mayoritaria y relevante que se ha compartido. Los curadores agregan por selección, dado que filtran eligiendo los contenidos más importantes (citas, artículos, canciones, vídeos, etcétera), mientras que los sintetizadores lo hacen por un método a medio camino entre la adición y la síntesis.

La «curación de contenidos» es un concepto que viene del mundo del marketing digital como respuesta a la masa ingente de información que circula en internet. El curador o curadora es capaz de identificar los contenidos de calidad y dotarlos de sentido, añadiendo incluso comentarios propios que aporten valor a la selección. El sintetizador, en cambio, elabora resúmenes fieles y ordenados de los resultados (inicialmente dispersos) obtenidos por un grupo.

Se trata en ambos casos de mecanismos de agregación muy efectivos pero también, obviamente, cargados de subjetividad, ya que los resultados estarán siempre condicionados por la mirada sesgada de la persona que haga el trabajo de síntesis o curación. Sin embargo, los sesgos pueden atenuarse si se asigna la tarea a un equipo de varias personas en lugar de confiar la agregación a un solo individuo, para así captar mejor la diversidad del colectivo al que representen.

La negociación parlamentaria, me recordaba el analista de datos y colaborador de El País Kiko Llaneras en el estudio que hice para mi libro, es un ejemplo sofisticado de agregación realizada por curadores o sintetizadores, y se trata de la alternativa más habitual en democracia representativa a la votación y a los referéndums. En un proceso de negociación legislativa de una ley cualquiera, estos representantes tienen que priorizar y descartar propuestas, además de sintetizar textos, hasta llegar a un resultado que pueda aprobarse. Es una agregación delegada en representantes que, en principio, debería permitir alcanzar soluciones intermedias, matizadas, entre opciones discrepantes.

Algunos autores de blogs saben hacer bien estos trabajos de filtrado y síntesis, y crean sus posts mediante la extracción inteligente de lo más interesante que se encuentra en la red sobre el tema de su interés. Actúan al mismo tiempo como curadores de contenidos y como prescriptores. Lo mismo hacen en buena medida los súper editores de la Wikipedia, que además de crear sus propios contenidos también sintetizan lo más relevante y valioso de las contribuciones de decenas o cientos de wikipedistas.

NOTA: La imagen de la entrada es del álbum de Pascal-Laurent en Pixabay.com. Si te ha gustado el post, puedes suscribirte para recibir en tu buzón las siguientes entradas de este blog. Para eso solo tienes que introducir tu dirección de correo electrónico en el recuadro de “suscribirse por mail” que aparece en la esquina superior derecha de esta página. También puedes seguirme por Twitter o visitar mi blog personal: Blog de Amalio Rey.

Experto en lnteligencia Colectiva y creación de redes y ecosistemas de innovación. Se dedica al diseño de arquitecturas participativas y al escalado eficaz de estos procesos. Autor del Canvas del Liderazgo Innovador, facilita proyectos e imparte formación sobre Design Thinking, Inteligencia Colectiva, Hibridación, Co-Skills, Co-Creación, y Ecosistemas 2.0 para innovar. Lidera proyectos de Arquitectura de la Información, redacción-web y diseño de contenidos digitales sobre innovación. Twitter: @arey Blogs: www.amaliorey.com y https://www.bloginteligenciacolectiva.com/

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

 

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.