La mayoría de nosotros, en tanto que votantes, inversores, consumidores o directivos, creemos que los conocimientos valiosos están en muy pocas manos (o, tal vez, sería mejor decir, en muy pocas cabezas). Estamos convencidos de que la clave para resolver problemas o tomar buenas decisiones estriba en hallar a la persona adecuada que tiene la solución […]. Lo que debemos hacer es consultar a la multitud (que, por supuesto, contiene tanto a los genios como a los demás)

James Surowiecki ; The Wisdom of crowds (2.004)

Una de las críticas que se pueden hacer al crowdsourcing, o uno de los miedos a la hora de aplicarlo, es pensar que utilizar el comodín del público puede suponer mermas en la calidad.

Como bien dice J. Surowiecki, no hay por qué desconfiar de las masas ni dudar de que un externalización de este tipo de peores resultados que si nos quedáramos en manos de uno o varios expertos. Es más probable que resultados negativos en acciones de crowdsourcing provengan de una deficiente utilización de la misma por parte de la empresa. Es a ésta, a la empresa, a la que le corresponde, por ejemplo, buscar los incentivos necesarios para la participación popular, acotar perfectamente lo que se espera, dar la información necesaria o tener óptimos mecanismos de filtrado y validación.

Para ilustrar que el crowdsourcing y la calidad no tienen por qué estar reñidos voy a utilizar el mismo ejemplo con el que comencé este blog: Wikipedia. Es común calificar dicha fuente de poco rigurosa. Sin embargo, como recordaba Enrique Dans en un reciente artículo, la fiabilidad de la Wikipedia es comparable a la reputada enciclopedia Britannica:

“Un artículo de Nature comparó una muestra de definiciones aleatorias de Wikipedia y Britannica, y encontró una media de cuatro errores por artículo de Wikipedia por tres en Britannica. En errores “serios” hubo empate: cuatro por fuente. Las cifras demostraban la fiabilidad de Wikipedia: la diferencia no era estadísticamente significativa. Pero había un factor más: las entradas en Wikipedia son 2.6 veces más largas, lo que mejora el ratio texto/errores a su favor. Considerando que Britannica mantiene un consejo editorial de expertos que escriben y revisan cada artículo, mientras Wikipedia somos cualquiera de nosotros, el resultado es para pensar. Y no porque los editores de Britannica sean malos, sino porque el trabajo de la inteligencia distribuida es insuperable.”

Otro ejemplo más lo encontramos en Colgate-Palmolive. En este caso no es que la calidad sea comparable sino que, gracias al crowdsourcing aplicado a una parte del desarrollo del producto, Colgate-Palmolive obtuvo una solución a un problema que su equipo de I+D no fue capaz de resolver. Se trataba de conseguir inyectar fluor en el tubo de la pasta dentrífica sin que entrara aire. Colgate realizó una convocatoria abierta y ofreció 25.000 dólares a quien resolviera el problema. Un ingeniero canadiense halló la solución, lo hizo aplicando principios de física elemental que ninguno de los químicos de Colgate se había planteado. Así lo explicaba la persona que encontró la solución: “realmente era muy simple y seguramente Colgate no lo pensó porque las personas que buscaban la solución no tenían conocimientos de física”.

¿Y vosotros qué opinaís? ¿estáis de acuerdo en que calidad y crowdsourcing no son incompatibles o, por el contrario, pensáis que estos ejemplos son puntuales y poco representativos?

¿Qué opinas?

 

Uso de cookies

Este sitio web utiliza cookies de Google Analytics con el único objetivo de obtener datos estadísticos sobre la navegación de los usuarios. Puede ampliar información sobre las cookies, su uso en este sitio y el modo de desactivarlas pinchando en este enlace

ACEPTAR