Explorando nuevas formas de colaboración y trabajo en red

TOP

junio 2015

Si usted ha pagado (o presenciado) un acto de soborno, infórmelo. En IPAB se piden datos a víctimas, perpetradores y beneficiarios de los actos de soborno.

Me gustan los resúmenes en forma de listas, así que dejo este post con una selección de algunas de las ideas más interesantes que recogí de la 2015 Collective Intelligence Conference, y con éste cierro el seriado que he venido publicando sobre el evento. No son citas literales sino mi interpretación, y por eso no aparecen entrecomilladas. Me han quedado 25 conclusiones breves, en forma de píldoras, que pueden darte unas pistas de por dónde va la investigación en Inteligencia Colectiva: 1.- Los grupos más inteligentes colectivamente, aprenden más rápido [Thomas W. Malone – MIT] 2.- La homofilia (grupos de “amigos” con intereses y creencias parecidas) induce a la polarización grupal y refuerza la viralidad de ciertos tipos de contenidos falsos que se basan en teorías conspirativas [Walter Quatrochiocci – IMT Lucca] (Más sobre esta idea en este post) 3.- La búsqueda excesiva de la diversidad puede provocar que se devalúe o subestime la información más relevante, ponderando en exceso las opiniones marginales [Richard P. Mann – ETH Zúrich] 4.- La media de “empatía social” de los miembros de un equipo fue un predictor significativo de la Inteligencia Colectiva y del rendimiento de los equipos en videojuegos como ‘League of Legends’. Sin embargo, la “igualdad de liderazgo” percibida por los miembros correlacionó negativamente, lo que sugiere que el “liderazgo distribuido” no es visto como una ventaja en entornos muy competitivos [Young Ji Kim - MIT] 5.- Existe una relación de curva en forma de U invertida entre “diversidad cognitiva” e “inteligencia colectiva”, de tal modo que los niveles más altos de IC se consiguen en equipos con niveles moderados de diversidad. Si hay poca diversidad, el grupo puede carecer de ciertas capacidades requeridas para abordar problemas complejos. Pero si hay demasiada, pueden producirse dificultades de comunicación y aumentar en exceso los costes de coordinación dentro del equipo  [Ishani Aggarwal – Tilburg University] 6.- La combinación de diferentes escalas en los proyectos de Inteligencia Colectiva aporta ventajas complementarias. Los grupos pequeños generan “profundidad”, los medianos “diversidad” y “evaluación”, y los grandes “visión común” y “legitimidad” [Minoru Mitsui – Fuji Xerox Co] 7.- Al Crowdsourcing de pago se le llama “Crowd Work”, que puede consistir en la externalización de un servicio o proyecto entero (por ejemplo, un desafío de I+D o de diseño), o tareas puntuales y aisladas dentro de un proyecto mayor, como los “HITs” de Amazon Mechanical Turk, en cuyo caso hablamos de “Microwork” o “Microtasking” [Rajan

Recupero hoy un artículo que escribí allá por septiembre de 2012 sobre la “Computación Humana” (“Human Computation”), porque es indudable el creciente protagonismo que está teniendo esta disciplina en algunos enfoques sobre la Inteligencia Colectiva. Esto se ha puesto de manifiesto, una vez más, en la 3ra Conferencia que sobre el tema se celebró esta semana en Santa Clara, California. La “Computación Humana” es una técnica que deriva o externaliza a grupos masivos de personas ciertos pasos del proceso computacional que los ordenadores no hacen bien, en una especie de simbiosis que busca optimizar el ratio de habilidades/costes en la interacción hombre-ordenador. En la computación clásica el hombre utiliza a los ordenadores para resolver problemas, le asigna tareas; mientras que aquí se produce un cambio de roles dado que es la computadora la que “asigna” tareas a grupos de personas, y después colecta, interpreta e integra los resultados que éstas les envían. Pondré un ejemplo sencillo para que esto se entienda. Una empresa necesita procesar y agregar metadatos de miles de imágenes para extraer conclusiones en un estudio que está haciendo. Esas imágenes están en bruto, y los metadatos que se buscan no pueden ser obtenidos de forma automática por un ordenador. Lo que se hace, entonces, es diseñar un programa que convierta el análisis de las imágenes en “microtareas” realizables por personas, y ofrecerlas en una plataforma (marketplace) a cambio de “micropagos”. Los trabajadores interesados se bajan las imágenes, las analizan y suben a la plataforma los metadatos. Después el programa de ordenador procesa y agrega toda la información aportada por los participantes para conseguir el resultado que buscaba la empresa. ¿Qué sentido tiene esto? Pues bien, hay ciertas tareas en las que los humanos, afortunadamente (y de momento), seguimos siendo más eficaces que las máquinas. Por ejemplo: clasificar fotos, detectar errores, taxonomizar documentos con fines archivísticos, introducir tags, realizar dibujos, buscar información (p.ej. precios) sobre determinados productos, verificar direcciones en guías de negocios, definir relevancia o rankings en resultados de búsquedas por Internet, transcribir a ordenador textos escritos a mano alzada, realizar traducciones, y por supuesto, generar contenidos (por ejemplo, posts) sobre determinados temas. Podríamos incluir en este listado, incluso, tareas aún más subjetivas como valorar los sentimientos o emociones que generan tuits, blogs, comentarios, películas o programas políticos. Ya debes imaginarte que los procesos de Human Computation son también una modalidad de “Crowdsourcing”, que consiste (como ya expliqué en un post

Desde hace un tiempo leo artículos de Emile Servan-Schreiber, co-fundador de Lumenogic e Hypermind, y un reputado experto mundial en Mercados de Predicción. Tuve la oportunidad de decírselo y compartir con él un rato esta semana en la 2015 Collective Intelligence Conference. Me gustaban sus artículos porque eran tan directos y elocuentes como he visto que es en persona. Lumenogic es una empresa que promete resolver problemas complejos usando mecanismos de inteligencia colectiva como: mercados de predicción, concursos de ideas, crowdsourcing y técnicas de visualización de datos, entre otros. Hypermind, por su parte, es un proyecto nacido de Lumenogic que se dedica a la predicción de tendencias, acontecimientos o eventos basándose en la inteligencia colectiva de una multitud o “Crowd” formada por super-pronosticadores que la empresa selecciona siguiendo unos determinados criterios. Lo más interesante de la charla de Servan-Schreiber es su tesis, ya avanzada en sus artículos, de que el Big Data está sobrevalorado en muchas situaciones. Para ilustrarlo utiliza una conocida broma acerca de una persona que ha perdido las llaves del coche y se pone a buscarla en los sitios del suelo donde refleja la luz de la calle. Después de un rato de no encontrarla, un policía le pregunta por qué no amplía su búsqueda a otros lugares, y él responde: "Porque es ahí donde da la luz". Pues bien, la obsesión actual con el Big Data recuerda en parte este efecto de la luz de la calle, o sea, la tendencia a buscar respuestas donde es más fácil buscarlas, que es algo que no mejora la probabilidad de encontrarlas.  Por eso, según el autor, la Inteligencia Colectiva puede proporcionar las “gafas de visión nocturna” que se necesitan para ampliar el espacio de búsqueda. La eficacia del Big Data depende del tipo de datos que se procesen, y para eso Servan-Schreiber usa un esquema que ayuda bastante a entender las distintas opciones que existen. La figura aparece a continuación: Como se ve, se pueden dar cuatro situaciones distintas, según el cuadrante en que encajen: Si hay pocos datos y son “no-estructurados” (o sea, analógicos, ruidosos, implícitos o tácitos, desordenados), lo mejor es que los interprete una persona, o un grupo muy pequeño de analistas. Si hay relativamente pocos datos y son “estructurados” (digitales, explícitos, ordenados, agregables), entonces conviene procesarlos con un programa de ordenador. Si hay muchos datos y son “no-estructurados”, la solución óptima es que se procesen por un colectivo grande de

Los procesos de naturaleza colectiva, al implicar a muchos participantes, son pródigos en la generación de ideas y provocan a menudo una sobrecarga informacional que es difícil de gestionar. Pasar de cientos de ideas a un número manejable de propuestas que se puedan convertir en proyectos reales exige refinar los métodos de evaluación, filtrado y selección para que no se produzcan pérdidas excesivas de eficiencia que hagan el proceso inviable. Eso ocurre en los programas de Innovación Abierta (“campañas de ideas”) que impulsan las empresas implicando a sus clientes y empleados, así como en iniciativas de Crowdsourcing para el diseño de políticas públicas del tipo que expliqué en mi post de ayer. En ambos casos hay que filtrar de algún modo los resultados para traducir cantidad en calidad. Eric Bonabeau dice, con razón, que la Inteligencia Colectiva funciona mejor para la generación de ideas que para la evaluación/filtrado de ellas. Esto es así porque a medida que nos movemos por el Funnel de Innovación (imaginémonos un embudo) desde la parte más ancha a la más estrecha, se necesitan reforzar mecanismos de coordinación que suelen ser costosos. La mala noticia es que identificar colectivamente las mejores ideas dentro de un volumen tan grande de opciones puede ser un proceso lento y con resultados inciertos. Pero la buena, que existen soluciones cada vez más efectivas para diseñar procesos de “filtrado colectivo” que ayuden a hacer la selección de forma colaborativa entre los miembros de la comunidad. Este martes, en la 2015 Collective Intelligence Conference que se ha celebrado en Santa Clara, CA, el investigador del MIT Mark Klein, presentó un estudio en colaboración con Ana Cristina Bicharra García, de la  Universidade Federale Fluminense, con el sugerente título de “High-Speed Idea Filtering with Bag of Lemons”, que aporta avances notables a la investigación sobre esta cuestión. El estudio de Klein y Bicharra comienza con una taxonomía de las técnicas que habitualmente se usan para el filtrado colectivo: Votación: Los participantes eligen, mediante voto, las ideas que deben ser seleccionadas. Hay dos modalidades para hacerlo: a) Una idea, un voto: Asignar un voto al número máximo de ideas que se pidan elegir, b) Multi-voto: Repartir un presupuesto de N votos entre las mejores ideas, de tal modo que una única idea podría llevarse todos los votos si el votante lo decide así. Ratings: Asignan una puntuación a cada una de las ideas según una escala prefijada. Rankings: Ordenan

Se está notando en los últimos tiempos un interés creciente por el Crowdsourcing como método participativo para implicar a los ciudadanos en los procesos de decisiones políticas. Es una forma de experimentar con algunos principios de la Democracia Directa, y también de adaptar estrategias de Innovación Abierta al sector público. En la edición anterior de la Collective Intelligence Conference (MIT, 2014) me quedé algo frustrado por la ausencia repentina de Hélène Landemore, que sigo desde hace tiempo por sus investigaciones sobre inteligencia/sabiduría colectiva y democracia post-representativa. Ella es la autora de un libro estupendo:  “Democratic Reason: Politics, Collective Intelligence, and the Rule of the Many”, y de artículos reveladores como: “Why the Many Are Smarter than the Few and Why It Matters” o “An epistemic argument for the random selection of representatives”. En esta edición de 2015 tampoco ha venido, pero tuve la oportunidad de conocer personalmente a Tanja Aitamurto, de la Universidad de Stanford, que es una estrecha colaboradora de Landemore, y de quien también había leído varios papers. Tanja,  además de ser una finesa encantadora, es experta en procesos de Crowdsourcing para el diseño de políticas públicas, que fue el tema que trató en su ponencia de ayer. Hemos quedado en hacerle una entrevista más tranquila, que espero poder publicar pronto en este blog. Por completar el trío de mujeres de referencia en este ámbito, habría que mencionar también a Beth Noveck, que participó en la Conferencia del año pasado. Ella es la fundadora de GovLab, y autora de un libro muy conocido sobre el tema: “Wiki Government: How Technology Can Make Government Better, Democracy Stronger, and Citizens More Powerful”. Aquí tienes una reseña del libro escrita por la propia autora y un vídeo-TED donde comparte su visión sobre el gobierno abierto. En este marco se inserta una innovadora experiencia promovida por el Ministerio de Medio Ambiente de Finlandia de impulsar un proceso legislativo de reforma de una ley de Tráfico (“Off-Road Traffic Act”) utilizando mecanismos de Crowdsourcing (CS), o sea, abriendo la consulta a los ciudadanos sobre cómo debía ser la nueva normativa que regula, por ejemplo, la circulación de las motos de nieve y vehículos todo terreno por rutas no convencionales. Ando mosca últimamente con la ambigüedad terminológica (a veces interesada) que existe en este mundillo, como ya expliqué hace poco en este post: ¿Por qué le llaman Inteligencia Colectiva si es Crowdsourcing? Así que antes de seguir, quiero diferenciar muy