Explorando nuevas formas de colaboración y trabajo en red

TOP

julio 2015

He explicado en otras entradas de este blog que la viabilidad de los procesos colectivos es más incierta de lo que suele admitirse. Por ejemplo, no hay muchos casos de éxito de Inteligencia Colectiva (IC) “colaborativa” a gran escala, más allá de la Wikipedia, Linux y algunos más. Si revisamos con detenimiento el inventario de proyectos de la P2P Foundation, o el listado de ejemplos de IC que cita la Wikipedia, es sorprendente constatar que la gran mayoría de esas iniciativas cerraron, ya no existen, porque fueron insostenibles a medio o largo plazo. Dos de las causas principales que explican esas altas tasas de fracaso son la escasa participación o, en el otro extremo, el brutal aumento de los costes de coordinación y de gestión que se derivan de un fuerte escalado en el número de participantes. Lo que está por ver es si ese déficit es estructural, irresoluble, o si responde a un problema de diseño que puede resolverse con fórmulas creativas, un tema que ocupa el interés central de mi investigación como parte del libro que estoy escribiendo. Los proyectos colectivos, a medida que crecen en escala, pueden volverse inmanejables debido a los enormes desgastes que implica su gestión. Es común escuchar críticas del tipo “es bonito, pero inviable” o “demasiados cocineros estropean el plato” para subrayar los problemas de eficiencia que suelen darse en iniciativas abiertas a la participación de mucha gente. A la actriz Marlene Dietrich le atribuyen la famosa frase de: “Si quieres que algo se haga, encárgaselo a una persona; si no, encárgaselo a un comité”, que apunta a la misma idea de lo poco eficaces que pueden ser a veces las dinámicas colectivas. Mi experiencia de participar en procesos de este tipo me dice que a más participantes, más se tiende al caos, y más ingobernables se vuelven los mecanismos de coordinación. Esto no sería invalidante per se si se consiguieran aflorar patrones de emergencia que introduzcan orden a un coste relativamente bajo, pero a menudo eso no ocurre, y el aumento de la complejidad producto del escalado ralentiza las decisiones y genera un sobrecoste en la gestión que no es fácil de asumir por los equipos promotores. Un primer problema de base es la sobrecarga informativa que produce el efecto combinado del aumento significativo de participantes con el patrón de Publica-luego-Filtra.  Muchas personas contribuyendo sin filtros previos generan tal sobreabundancia de ideas que puede exceder la

Ensayos de Nicholas Carr, Andrew Keen, e incluso, en cierto grado, de Evgeny Morozov o del reconvertido Jaron Lanier, exploran puntos de vista que pueden calificarse de elitistas, y se cuestionan abiertamente que “lo colectivo” sea algo viable o saludable. A pesar del fuerte pesimismo que destilan, estas voces discordantes son positivas porque obligan a reflexionar sobre los riesgos de entender la Inteligencia Colectiva, y el cambio tecnológico mismo, desde una perspectiva acrítica. El filósofo José Antonio Marina se hacía, en noviembre de 2014, estas preguntas premonitorias: “¿De quién se fiaría usted más, de un jurado o de un juez? Si se debate entre una política económica de austeridad o de expansión. ¿En quién confiaría? ¿En una votación popular? ¿En un grupo de expertos?” Una crítica habitual y legítima que se hace a los procesos de consulta colectiva es, y cito literal, que “la gente común no sabe”, así que es un error preguntarle sobre temas complejos y menos aún hacer depender una decisión crítica de personas que opinan desde el desconocimiento. El corolario ya lo conocemos: “se necesitan expertos y profesionales”. Este me parece de los temas más complejos y fascinantes de la Inteligencia Colectiva, y confieso que me está costando diseccionarlo de un modo sereno, sin caer en sesgos de juicio. Lo anterior me lleva inexorablemente al Referendum griego. Voy a examinar el dilema “Colectivo vs. Expertos” usando como referencia el caso heleno, con independencia del desenlace político que ha tenido después, que no debe deformar el rigor técnico de la reflexión que voy a hacer. También evitaré entrar en otro debate igual de interesante, y es el que se pregunta si “lo popular” ha de ser interpretado por definición como una señal de falta de calidad. Steven Johnson, con su “Everything Bad is Good for You” (2005), pone en tela de juicio muchos prejuicios al respecto cuando examina el valor de la cultura pop moderna, pero dejo esta cuestión para otro post porque es demasiado compleja para que quepa en este. Ante la disyuntiva que plantee antes, un enfoque es confiar en la visión tecnocrática que cree que las decisiones en estos casos las debe tomar el equipo de gobierno, porque su autoridad ya está legitimada por las urnas y cuenta con el apoyo de expertos que entienden bien el problema. Esta postura, que es la que defiende el Eurogrupo, parece ver a la opinión pública como un peligro que hay

Con tal abundancia de enfoques e interpretaciones, se agradece algo de simplificación. Es la intención de este post. Voy a centrarme en dos teorías que desde mi punto de vista creo que explican, de forma combinada, una buena parte de las ventajas y oportunidades que encierra la Inteligencia Colectiva. Clay Shirky, con su concepto de “excedente cognitivo”, argumenta por qué tenemos más oferta de contribuciones e ideas para compartir colectivamente, mientras que el gran Herbert Simon ayuda a comprender el lado de la demanda, aportando evidencias de la “racionalidad limitada” que sufren las personas a la hora de tomar decisiones de forma individual y cómo ésta puede mejorar si se complementa con más puntos de vista. La teoría del “Excedente Cognitivo” de Clay Shirky sostiene que existe un superávit de talento en la sociedad que busca canalizarse colectivamente para fines creativos y sociales. Esto es así por el efecto combinado de: 1) más tiempo libre, 2) sobreabundancia de conocimientos ociosos e infrautilizados, 3) predisposición natural de las personas a crear e interactuar con otras, 4) existencia de una tecnología como Internet que reduce significativamente el coste de publicar y compartir dicho conocimiento. La gente, según Shirky, siempre ha querido crear y colaborar por motivaciones intrínsecas, simplemente porque le gusta. Esta tendencia natural se ha reforzado al desplomarse los costes de compartir gracias a Internet. Si tienes tiempo libre y un conocimiento con algún valor, ahora cuesta menos compartirlo con otras personas, y eso incrementa las probabilidades de que se disparen procesos de inteligencia colectiva. Hay más “material” disponible para combinar, y también más canales o espacios para facilitar la agregación. El premio Nobel Herbert Simon, con su potente “Teoría de la Racionalidad Limitada” (“bounded rationality”), sienta las bases para comprender por qué a las personas nos cuesta tanto decidir de forma aislada, o siendo más preciso, las dificultades que tenemos para procesar la información disponible a la hora de tomar decisiones, que no son tan racionales como afirman otras escuelas del pensamiento económico. Simon indica que la racionalidad individual está acotada por tres dimensiones que imponen restricciones inevitables al tomador de las decisiones: 1) Información disponible: Una persona solo dispone de fuentes limitadas de información, a veces poco fiables, sobre las posibles alternativas y sus consecuencias, 2) Capacidad cognitiva: Los humanos tenemos una capacidad limitada para procesar y evaluar la información disponible (hay quien dice que no estamos preparados para manejar a la vez más