Se ha inaugurado esta tarde, en Stern School of Business de la New York University, la 4ta edición de la Collective Intelligence Conference, que es la conferencia más importante que se celebra sobre este tema en el mundo. Puedes informarte con más detalles del evento en este post: “Inteligencia Colectiva en Nueva York”.
En la primera sesión de hoy, que ha sido breve en formato de apertura, tuvimos un panel sobre el tema que lleva de título esta entrada. Aunque soy prudente y trato de no caer en ciber-utopías, creo honestamente en las ventajas de lo colectivo y en las oportunidades que ofrece Internet para rediseñar el sistema político e impulsar iniciativas que promuevan modelos más participativos de democracia. Por cierto, una pena no haber podido asistir al encuentro organizado recientemente por Medialab Prado: “Ciudades Democráticas: Tecnologías de los comunes y derecho a la ciudad democrática”, que incidía precisamente en esa cuestión.
El cartel de ponentes del panel era de campanillas. Viejos conocidos y estrellas emergentes. Iré presentando a cada uno mientras resumo algunas de sus intervenciones y me extiendo en pistas sobre sus trabajos por si te interesa investigar más.
Empecemos por Beth Noveck, quien introdujo el panel. Ella es una reputada académica que trabajó algunos años con Obama en su iniciativa de Gobierno Abierto. A Noveck la sigo hace tiempo por ser fundadora y directora de una organización muy interesante, “The Governance Lab” (@TheGovLab), cuya declaración de misión ya suena persuasiva: “Profundizar en nuestra comprensión sobre cómo gobernar de forma más efectiva y legítima usando la tecnología”.
Su concepto de “Tecnologías de Experiencia” (“Technologies of Expertise”) es de las cosas que más me atraen de Noveck, y que viene a decir que las instituciones públicas deberían usar más los avances tecnológicos para aprovechar mejor las competencias y conocimientos científicos y prácticos que existen dentro y fuera del gobierno, y sobre todo los inputs que pueden aportar los ciudadanos para ayudar a la toma de decisiones. Su tesis se resume en la idea de que “acceder a ciudadanos inteligentes hace al Estado más inteligente” y está desarrollada en un libro que publicó en 2015, que reseñaré próximamente: “Smart Citizens, smarter state: The technologies of expertise and the future of the governing”. En la medida de que seamos capaces de poner las nuevas herramientas tecnológicas al servicio de conectar con la sabiduría ciudadana, desde una vocación auténticamente democrática y cuidando también lógicas de eficiencia, entonces se podrá mejorar el Know-how que los gobiernos necesitan para optimizar sus decisiones.
Henry Farrell, de la George Washington University, fue el moderador del panel. Es conocido por sus trabajos sobre confianza y política en Internet, y su idea de “democracia cognitiva”, que insiste en los beneficios cognitivos de los procedimientos democráticos frente a otros mecanismos como los mercados o la jerarquía.
Noveck resaltó la importancia de poner a trabajar juntos a expertos de distintas disciplinas, que es uno de los objetivos de estas conferencias; mientras que Farrell recordó que estamos todavía lejos de tener un cuerpo metodológico coherente que articule un punto de vista común sobre la inteligencia colectiva a partir de los ámbitos científicos dispares que tratan el tema como la economía, la ciencia política, la estadística, la psicología cognitiva o las ciencias de la computación, entre otros.
Hugo Mercier, del CNRS Lyon y University of Neuchatel, ha sido para mí todo un descubrimiento. La mayor parte de su investigación está centrada en su “Teoría Argumentativa del Razonamiento”, según la cual éste opera bien solo si mejora su capacidad de argumentación. Voy a escribir algún post reseñando su investigación porque llega a conclusiones muy reveladoras sobre cómo pensamos y argumentamos. Usa ese marco de referencia para examinar cómo funcionan los procesos de deliberación colectiva, afirmando que el razonamiento evolucionó para poder argumentar con/hacia los demás, para evaluar argumentos destinados a persuadir, y que eso contribuye a que seamos mejores razonando en grupo que solos. Por eso sugiere situar el razonamiento colectivo en un “entorno argumentativo” adecuado para que las personas expresen su mayor potencial, y eso impacta necesariamente en la eficacia/eficiencia de los procesos de inteligencia colectiva que a mí me interesa mejorar.
Su charla se centró en lo que él llama la “paradoja de la argumentación”, o sea, el desajuste que existe entre el alto grado de eficacia real de la argumentación colectiva y la percepción pesimista que tiene la gente de su efectividad. Según él la deliberación colectiva basada en argumentos tiene una mala prensa que no se merece. Para los escépticos, Mercier ha demostrado con estudios empíricos que los resultados de la discusión colectiva suelen ser en la realidad mucho mejores de lo que cree la gente, o dicho al revés, que las personas (incluidas los expertos) tienden a subestimar la eficacia de la argumentación en grupo. Ese desajuste lo explica por el imaginario que todavía existe del “genio solitario” resolviendo los problemas, pero sobre todo por dos causas: 1) una especie de “asimetría atribucional” que consiste en atribuir a nosotros mismos el mérito cuando la discusión logra buenos resultados, y culpar al grupo cuando sale mal, 2) un “sesgo de memoria” porque tendemos a recordar más los argumentos frustrantes que aquellos que ayudaron a cambiar de opinión. Mercier cree que esa tendencia a devaluar la eficacia de la argumentación colectiva penaliza el desarrollo de instituciones que dependen de ella porque no la estimulan o lo hacen sin creer realmente en sus ventajas.
Suresh Naidu, de la Columbia University, es un tío carismático que parece aún más joven de lo que es. Es conocido por su fuerte implicación en las movilizaciones de Occupy Wall Street y sus estudios sobre el impacto de la desigualdad en la calidad de la democracia. Ver este artículo que lo describe como un economista singular. Su historia me va a servir de pretexto para escribir más adelante sobre en qué medida los economistas pueden/deben involucrarse en política, y lo que es más interesante, si la buena ciencia económica puede ser ideológicamente tan neutral como algunos reclaman. Suresh habló sobre las “normas colectivas” que implican “convenciones asimétricas” haciendo un repaso histórico por distintos conflictos sociales que reflejan esa desigualdad. Me costó entenderlo porque fue una presentación basada en modelos matemáticos y teoría de juegos. Sí que me quedó claro su visión crítica sobre la visión “menos optimista” de la economía hacia los fenómenos de emergencia que son tan típicos en la acción colectiva.
De Scott E. Page, experto en complejidad de la Universidad de Michigan, ya he hablado otras veces. Es mi académico de cabecera cuando quiero examinar la diversidad desde un punto de vista riguroso. Es probablemente el investigador más citado en esta temática desde su famoso libro “The Difference”. Nos recordó su famoso (y polémico) axioma de “Diversity trumps Ability”, o sea, que un grupo de personas medias cognitivamente diversas consigue mejores resultados que un grupo de personas muy inteligentes que piensen de forma similar. Entró también en modelos matemáticos que no caben en este post 🙂
Por último, Melissa Schwartzberg, de la NY University, es una erudita del análisis histórico de la toma de decisiones y la democracia. Muy interesante el libro que publicó en 2014 sobre el uso de reglas de votación como las llamadas “súper-mayorías” o “mayorías cualificadas” (cuando el listón se pone más alto que la simple mayoría absoluta del 50% más uno) y su impacto sesgado en la democracia. Recuerdo que escribí hace algún tiempo un post sobre Cataluña, que trajo tela, en el que hablaba precisamente de si se debía introducir el criterio de mayoría cualificada en un hipotético referéndum. Pues bien, este tema es especialmente importante para examinar los pros y los contras de los mecanismos de agregación colectiva que se basan en la votación.
Melissa se centró en los jurados como modelos colectivos para la resolución de problemas porque según ella, constituyen la institución democrática paradigmática en la que los ciudadanos comunes resuelven problemas dentro de las democracias. El dilema que planteó es extrapolable a otros ámbitos: el deseo de inclusión e igualdad de derechos que aporta legitimidad (cualquier persona tiene derecho a servir en un jurado) vs. la eficacia de los resultados, o sea, llegar a juicios justos. En resumen: ¿Cómo diseñar procesos colectivos legítimos que no sacrifiquen la eficacia? Este es, sin duda, uno de los dilemas más complejos que tiene el diseño de los mecanismos de gestión de la democracia, y me consta que no está bien resuelto.
Antes de terminar no puedo dejar de decir esto. Esta primera sesión plenaria me ha dejado un sabor agridulce. Me ha parecido una colección de charlas inconexas, en las que cada ponente hablaba de lo suyo, que era interesante pero sin poner el foco directamente en el tema del panel, ni buscar chispas o sinergias entre las distintas perspectivas. Y no deja de ser irónico que estando en un evento sobre inteligencia colectiva, cueste tanto poner de acuerdo a 4-5 ponentes para que coordinen sus contenidos e intenten agregar conocimiento colectivamente a través del intercambio. Cada uno hizo su presentación de forma individual, y apenas quedó tiempo para explorar una visión global del grupo sobre el tema. Vale, sé que eso no debería sorprenderme porque es casi imposible ver en España una “mesa redonda” que sea eso, una reflexión ágil entre los participantes. Y ya ni hablar de que intenten ponerse de acuerdo en una visión común que valga más que la mera suma de las perspectivas individuales.
¡Interesante artículo! La Inteligencia Colaborativa puede aplicarse a todos los sectores existentes. Si os interesa el tema, comparto un artículo en el que hablo de cómo aplicarla en las empresas:
http://comunidad.iebschool.com/iebs/emprendedores-y-gestion-empresarial/inteligencia-colaborativa/
Un saludo.