Índice 1. Gestión del conocimiento, un concepto aún confuso ..................................................................................................5 2. Sobre el conocimiento ...................................................................................................................................................6 3. "Leaky or sticky?" ...........................................................................................................................................................7 4. La "Library of Congress", la CIA y el "bibliotecario perfecto" .....................................................................................8 5. Invertir en conocimiento para gestionar el conocimiento ..........................................................................................9 6. Ba .................................................................................................................................................................................10 7. Utilidad y usabilidad de los sistemas ..........................................................................................................................11 8. Niveles del conocimiento ............................................................................................................................................12 9. ¿Conocimiento en el fútbol? .......................................................................................................................................13 10. Congreso Anual de la ASIS (&T) ..............................................................................................................................14 11. El contexto social: comunidades de práctica ............................................................................................................15 12. El siglo de la bioinfonomía........................................................................................................................................17 13. e-science ....................................................................................................................................................................18 14. Ideas originales en GC ...............................................................................................................................................20 15. Testimonios del pasado .............................................................................................................................................21 16. Indicios del futuro .....................................................................................................................................................22 17. Prisioneros del dilema ...............................................................................................................................................24 18. Instinto de cooperación ............................................................................................................................................26 19. Creación de capital social ..........................................................................................................................................27 20. Volatilidad y virtualidad ............................................................................................................................................28 21. Conocimiento implícito ...........................................................................................................................................29 22. Organizaciones basadas en el conocimiento ............................................................................................................30 23. ¿Gestión del conocimiento sin tecnología? ..............................................................................................................31 24. Evolución ...................................................................................................................................................................32 25. Management evolutivo .............................................................................................................................................33 26. Ordenadores cuánticos .............................................................................................................................................34 Agustí Canals Know-org 2 27. Gestión del conocimiento para el terror ..................................................................................................................35 28. Prácticas efectivas de gestión del conocimiento .......................................................................................................36 29. Complejidad, organizaciones y conocimiento .........................................................................................................37 30. El premio Nobel de Infonomía .................................................................................................................................38 31. El teorema del elefante ..............................................................................................................................................39 32. Aprender a nadar en seco ..........................................................................................................................................40 33. Límites en la articulación explícita del conocimiento .............................................................................................41 34. Compartir conocimiento, ¿hasta dónde? .................................................................................................................42 35. Paisajes estratégicos ...................................................................................................................................................43 36. k-Life ..........................................................................................................................................................................44 37. GC en la tercera fase ..................................................................................................................................................45 38. Interacción social ......................................................................................................................................................46 39. De dónde viene la gestión del conocimiento: tendencias ........................................................................................47 40. De dónde viene la gestión del conocimiento: tradiciones .......................................................................................48 41. Qué entienden las empresas por GC ........................................................................................................................49 42. Gestionar conocimiento en la universidad ..............................................................................................................50 43. La investigación científica y la GC ............................................................................................................................51 44. Shock: compartir el conocimiento manteniendo el control ....................................................................................52 45. El principio 007 .........................................................................................................................................................53 46. Cynefin ......................................................................................................................................................................54 47. Diez líneas de futuro .................................................................................................................................................55 48. El valor del conocimiento .........................................................................................................................................56 49. Rutinas, "memes", "kenes" .........................................................................................................................................57 50. La importancia de la competencia informacional ...................................................................................................58 51. El espacio aún cuenta, pero menos ...........................................................................................................................59 52. e-Learning y Gestión del Conocimiento ..................................................................................................................60 53. GC en medicina: hacia el JIT .....................................................................................................................................61 Agustí Canals Know-org 3 54. ¿Qué tipo de bien es el conocimiento? ......................................................................................................................62 55. Crecimiento ...............................................................................................................................................................63 56. Evitar el modelo WORN ...........................................................................................................................................64 57. Olfato de gol ..............................................................................................................................................................65 58. "Aprender haciendo"... otra cosa ..............................................................................................................................66 59. Conocer es también saber interpretar ......................................................................................................................67 60. Organizar la GC .........................................................................................................................................................68 61. La Gestión del Conocimiento en las nuevas organizaciones ...................................................................................69 Agustí Canals Know-org 4 1. Gestión del conocimiento, un concepto aún confuso Durante los últimos dos o tres años el término Gestión del Conocimiento se ha convertido en uno de los "buzzwords" más utilizados en el mundo empresarial. Sin embargo, paradójicamente, cada vez es más difícil saber qué significa. Es imposible encontrar una base conceptual común entre todos los que claman ser expertos en el tema. A mi modo de ver, ello se debe principalmente a tres razones. La primera hace referencia a la segunda parte del término: el conocimiento. Desde tiempo inmemorial, los filósofos se han preocupado por eso que llamamos conocimiento. Desde Platón hasta Popper, pasando por la rivalidad entre racionalistas y empiristas, la epistemología (ciencia que trata de los métodos, fundamentos y valor del conocimiento) se ha ocupado del tema sin llegar a una conclusión clara. No es extraño, pues, que sea difícil definir qué significa gestionar un concepto tan escurridizo. La segunda razón es de índole mucho más prosaica. Cuando aparece un término que hace fortuna en el mundo empresarial y, como consecuencia, se convierte en una buena tarjeta de presentación, se produce el fenómeno conocido como “bandwagon effect”. El término en cuestión se constituye en una especie de atractor de un gran número de iniciativas dispersas que tienen mucha, poca o a veces ninguna relación con el concepto original. Los impulsores de esas iniciativas pretenden conseguir una mayor visibilidad, prestigio y, en última instancia, rentabilidad de sus proyectos subiéndose al carro que está de moda. Así, encontramos bajo el epígrafe de gestión del conocimiento desde sistemas informáticos hasta planificación de recursos humanos, pasando por estrategias de cambio organizacional. Inevitablemente, la consecuencia es que el concepto original queda completamente desdibujado. La tercera razón tiene cierta relación con la segunda, pero es un poco más profunda. La gestión del conocimiento tiene como objeto la organización, y una organización es un sistema social. Como expone Martin Hollis en su libro “The Philosophy of Social Science” (http://www.amazon.com/exec/obidos/ASIN/0521447801/ infonomia), hay muchos paradigmas diferentes a la hora de intentar comprender cómo funcionan los sistemas sociales o, tal como dice Gareth Morgan en “Images of Organization” (http://www.amazon.com/exec/obidos/ASIN/0761906347/ infonomia), muchas metáforas aplicables a las organizaciones. Es suficiente echar un vistazo a algunos recopilatorios de artículos de autores de prestigio sobre Gestión del Conocimiento, como el “Harvard Business Review on Knowledge Management” (http://www.amazon.com/exec/obidos/ASIN/0875848818/infonomia) o el número especial de la revista “California Management Review” sobre “Knowledge and the Firm” (http://www.haas.berkeley.edu/ News/cmr/contentsKI.html), ambos muy recomendables, para darse cuenta de esa disparidad de enfoques. Cada visión proviene de paradigmas diferentes y, por tanto es muy difícil que puedan constituir simplemente al agruparse una disciplina coherente. No se me ocurre ningún antídoto para las dos primeras razones que no sea el avance de la ciencia cognitiva en el primer caso y el paso del tiempo en el segundo, pero quizás podamos avanzar en la tercera asumiendo una interdisciplinariedad que se hace cada vez más necesaria para la resolución de los problemas de la nueva economía, integrando los conocimientos provenientes de distintos ámbitos al mismo tiempo que creamos nuevos paradigmas. Se trata, una vez más, de idear nuevos enfoques mediante una sinapsis de disciplinas o “consilience”, actitud siempre presente en el espíritu de Infonomia.com (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num =454). Agustí Canals Know-org 5 2. Sobre el conocimiento Si en este espacio pretendemos tratar aspectos del uso y la generación de conocimiento en las organizaciones, bueno sería tener una idea clara de qué es eso que llamamos conocimiento. Pero ya vimos en el primer mensaje de KnowOrg que eso no es tarea fácil... El conocimiento ha sido una preocupación constante desde los primeros filósofos y científicos. Aún así, no se ha llegado aún (y quizás nunca se llegue) a un acuerdo respecto a qué significa ese concepto. Sin embargo, ha habido a lo largo de la historia del pensamiento varios puntos de vista sobre el tema. Personalmente, me ha sido útil conocer, aunque sea superficialmente (no soy, ni mucho menos, experto en filosofía), algunos de ellos para formarme una imagen más coherente de ese concepto. Entre los filósofos clásicos, empezando por Platón, parece haber un consenso en que el conocimiento puede definirse como “una creencia cierta justificada”. Es decir, para poder decir que poseemos un conocimiento debemos albergar una creencia, que esa creencia sea objetivamente verdadera y además que su veracidad se sustente en hechos suficientemente sólidos. Parece una definición razonable. Sin embargo, podemos preguntarnos qué ocurre con el llamado conocimiento tácito introducido por el filósofo Michael Polanyi (del que sin duda volveremos a hablar en varias ocasiones) en algunas de sus obras como “Personal Knowledge” (http://www.amazon.com/exec/obidos/ASIN/0226672883/ infonomia) o “Tacit Dimension” (http://www.amazon.com/exec/obidos/ASIN/0844659991/infonomia). Todos poseemos algún tipo de conocimiento del que ni tan siquiera somos conscientes, como el que nos permite nadar o montar en bicicleta. Es difícil relacionar ese conocimiento con algún tipo de creencia consciente… Por otra parte, en muchas ocasiones es imposible determinar la veracidad objetiva de una proposición. Para el filósofo austriaco Karl Popper, eso es imposible desde un punto de vista lógico. Se puede saber con certeza que una suposición es falsa, cuando aparece un contra-ejemplo que la desmiente. Sin embargo, aseverar que una suposición es verdadera requeriría comprobar que se cumple en todos los casos posibles, y eso no está a nuestro alcance. Así, para Popper todo conocimiento es provisional. Una simple suposición puede ser utilizada y considerada como conocimiento mientras no aparezca un hecho que la contradiga. En ese momento dejaría de ser conocimiento. Ni la veracidad ni la justificación, por tanto, parecen muy claras. El economista Kenneth Arrow propone una visión que me parece muy interesante, y que es incluso más pragmática que la anterior. Para Arrow nuestro conocimiento es un conjunto de distribuciones de probabilidades que refleja nuestra visión del mundo. Nuestro conocimiento alberga, pues, en cierta manera, la manera en que esperamos que se comporte el mundo que tenemos a nuestro alrededor. Esta definición me hace pensar que el conocimiento es un elemento clave a la hora de adaptarnos a nuestro entorno. Y cuanto más variable sea ese entorno, más a menudo nos veremos obligados a modificar nuestro conocimiento, es decir, a aprender nuevas cosas y, como diría Alfons Cornella, a desaprender lo aprendido. Probablemente por esta razón estamos en estos momentos de grandes cambios, en pleno auge de la llamada Nueva Economía, tan preocupados por algo tan antiguo como la gestión del conocimiento… Agustí Canals Know-org 6 3. "Leaky or sticky?" Mientras que en algunas ocasiones el conocimiento es extremadamente difícil de compartir y difundir, en otras es imposible evitar que se extienda rápidamente, aunque intentemos ponerle barreras... En su libro “The Social Life of Information” (http://www.amazon.com/exec/obidos/ASIN/0875847625/ infonomia) del que ya trató Alfons Cornella en Extra!-Net (http://infonomia.com/extranet/index.asp?idm=1& idrev=1&num=505), los investigadores del Xerox PARC John Seeley Brown y Paul Duguid observan esta dualidad que presenta el conocimiento. A veces es algo muy difícil de extraer de donde se encuentra para transmitirlo a otras partes de la organización; es como una sustancia pegajosa (en inglés, “sticky”). En cambio, en otras ocasiones, a pesar de todos nuestros esfuerzos para retenerlo, se escapa inevitablemente comportándose como algo escurridizo (ellos utilizan el término “leaky”) que los competidores aprovechan. Para intentar entender esta paradoja podemos hacer uso de un modelo ideado por Max Boisot, profesor de Management Estratégico en ESADE (Barcelona) y Research Fellow en la Wharton School (University of Pennsylvania) entre otras múltiples ocupaciones. Max presenta en su libro “Knowledge Assets: Securing Competitive Advantage in the Information Economy” (http://www.amazon.com/exec/obidos/ASIN/ 0198290861/infonomia) un marco teórico para el estudio de los flujos de conocimiento en las organizaciones y fuera de ellas. El modelo es algo complejo y difícil de explicar con brevedad, pero intentaré esbozar sus líneas generales. Boisot sostiene que los activos de conocimiento se sitúan en un espacio tridimensional imaginario en función de tres cualidades que el conocimiento puede poseer en mayor o menor cuantía: la codificación, la abstracción y la difusión. Dentro de este espacio, llamado “Information Space” o “I-Space”, se produce la creación y la transmisión del conocimiento. Un conocimiento está codificado cuando es posible describirlo mediante la utilización de algún código, como por ejemplo el lenguaje humano o la notación matemática. Evidentemente, en el momento en que se codifica pierde algunas sutilezas que el código es incapaz de reflejar. Nunca la descripción de un paisaje, por buena que sea, puede sustituir a la experiencia de estar rodeado de él admirándolo físicamente. La abstracción consiste en desligar el conocimiento de los aspectos relacionados con el entorno, el lugar y el momento concretos en que se ha creado, de manera que pueda utilizarse en otras situaciones asimilables. Un conocimiento abstracto es más genérico y tiene, por tanto, más dominio de aplicación. Una fórmula geométrica como la del área de un triángulo es un ejemplo de conocimiento abstracto, ya que puede ser utilizada para cualquier triángulo. La difusión es la transmisión del conocimiento a los diversos miembros de la comunidad a la que se aplica el modelo. Puede tratarse de una empresa, un sector o incluso un país entero. Para que el conocimiento pueda ser difundido, dice Boisot, es necesario que alcance un cierto grado de codificación y abstracción. De lo contrario, es imposible que la persona que lo posee pueda transmitirlo. Cuando el grado de codificación y abstracción es bajo, puede transmitirse, pero con dificultad y generalmente sólo a través del contacto directo y continuado. Es el conocimiento de carácter más tácito o personal, que Brown y Duguid tildarían de “sticky”. Cuando el conocimiento alcanza altos niveles de codificación y abstracción, como por ejemplo una fórmula química, es mucho más fácil de difundir en la organización y, por tanto, ésta puede sacar mucho más rendimiento de él. Sin embargo, esa misma facilidad hace posible que el conocimiento se pueda difundir hacia el exterior de la organización y, por tanto, se produzca una erosión de la ventaja competitiva que éste proporcionaba. El conocimiento se ha vuelto “leaky”. En otro artículo trataremos de qué estrategias pueden adoptar las empresas ante este dilema... Agustí Canals Know-org 7 4. La "Library of Congress", la CIA y el "bibliotecario perfecto" En la interesante novela "Snow Crash" de Neal Stephenson http://www.amazon.com/exec/obidos/ASIN/ 0553380958/infonomia, publicada en español por la editorial Gigamesh (http://www.gigamesh.com), se describe un futuro no muy halagüeño en el cual no hay estado ni leyes y la sociedad está dominada por grandes corporaciones que se mueven exclusivamente por intereses económicos. Admito que no parece que todo esto tenga mucha relación con la gestión del conocimiento, pero hay algunos pasajes de la historia cyberpunk de “Snow Crash” que me han sugerido reflexiones respecto a cual puede ser la evolución de este campo en el futuro. Por ejemplo, una de las grandes corporaciones que aparecen en la novela es la llamada CIC, dedicada a la búsqueda y comercialización de información. La citada organización es el resultado de la fusión entre la Biblioteca del Congreso de los Estados Unidos… ¡y la CIA! A primera vista, parece algo absurdo, pero refleja una tendencia que ya estamos observando hoy en día. La gestión de información, necesaria—aunque no suficiente—para una adecuada gestión del conocimiento, es un campo interdisciplinario en el cual, como decía Alfons al definir la infonomía, se necesita cada vez más la aportación de distintos campos del saber y de distintas competencias (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=521). Entonces, quizá no sea tan extraño que especialistas en la búsqueda de información (la Inteligencia Competitiva no está tan lejos del espionaje) se alíen a los expertos en la organización de esa información. Al fin y al cabo, saber dónde se encuentra el conocimiento y estructurarlo (o estructurar su representación) de manera que sea posible su utilización en el momento en que se necesite son objetivos que deben complementarse en cualquier proyecto de gestión del conocimiento. Una gran parte de la acción de “Snow Crash” se desarrolla fuera del “mundo real”, en un mundo virtual llamado “Metaverse” donde cada persona real está representada por un agente de software de forma humana llamado “avatar”. Los avatares interaccionan entre ellos físicamente (aunque, por supuesto, simuladamente) en el Metaverse bajo el control de sus propietarios. Cuando éstos necesitan encontrar información o comunicarse, pueden enviar sus avatares al mundo virtual para hacer esas funciones. Por ejemplo, cuando quiere obtenerse información de la organización CIC, los avatares interactúan con un agente de software, en forma humana también, que actúa como el “perfecto bibliotecario”. En respuesta a las preguntas del avatar cliente y basándose en su conocimiento de todo lo que contienen las bases de datos de CIC, el bibliotecario puede acceder a cualquier información y facilitarla inmediatamente, con la elaboración que haga falta en cada caso. Sin embargo, no es capaz de hacer valoraciones sobre la información recuperada ni, mucho menos, entender una ironía. Quizá en el futuro la interacción con los sistemas de gestión del conocimiento sea de esta manera, y quizá entonces valoraremos más el contacto con los buenos profesionales de la información de carne y hueso… Curiosamente, “Snow Crash” se empezó a escribir en 1988, mucho antes de que se inventara lo que años después conoceríamos como World Wide Web… Agustí Canals Know-org 8 5. Invertir en conocimiento para gestionar el conocimiento En la actualidad se está invirtiendo mucho en sistemas informáticos para la gestión del conocimiento. Sin embargo, no se está invirtiendo tanto en la formación de quienes deben utilizarlos. En su muy interesante libro “How the Mind Works” (http://www.amazon.com/exec/obidos/ASIN/ 0393318486/infonomia), el especialista en neurociencia cognitiva del MIT Steven Pinker pone el caso de las patas de los animales como ejemplo de la gran efectividad de la naturaleza en encontrar soluciones a los problemas biológicos. Efectivamente, muchas veces citamos la rueda como uno de los descubrimientos más importantes de la historia de la humanidad. Sin embargo, no nos damos cuenta de que nosotros mismos poseemos un método de locomoción mucho más perfecto. Mientras que los vehículos con ruedas son adecuados sólo para circular por terrenos consistentes y más o menos planos, los “vehículos” con patas, los animales, tienen acceso a la mayor parte de la tierra que no está sumergida. Las ruedas requieren un soporte continuo, mientras que las patas tienen bastante con una serie de puntos de apoyo separados, como es el caso de una sencilla escalera. Las patas permiten una mucho mayor flexibilidad para adaptarse al terreno y a la situación. Sin embargo, como dice Pinker, las patas vienen con un alto precio: el software o, mejor dicho, “wetware” para controlarlas. Cuando utilizamos nuestras piernas para desplazarnos, estamos continuamente cambiando nuestro punto de apoyo y, para ello, es necesario que desplacemos cada vez nuestro peso hacia la pierna que no se está moviendo. Además, debemos mantener siempre el centro de gravedad equilibrado y el tronco estabilizado. Para poder realizar todos los cálculos necesarios para gobernar esa maquinaria se necesita una potente herramienta con la que el mecanismo de la evolución nos ha dotado: el cerebro. Para conseguir esa maravilla, sin embargo, la naturaleza ha tenido que hacer una colosal inversión en tiempo (miles de millones de años) y en ensayos (miles de millones de individuos con mutaciones que no han superado la selección natural). Y ha invertido mucho más en el desarrollo del cerebro que en el de las piernas. Este ejemplo me ha hecho pensar que para obtener buenos resultados hay que invertir adecuadamente a distintos niveles. Está claro que actualmente se está invirtiendo mucho en soluciones informáticas que presuntamente resolverán todos los problemas de la gestión del conocimiento. Pero mi duda es si se está invirtiendo al mismo nivel en el “wetware” que ha de sacar partido de esos sistemas. Es importantísimo que los profesionales que deben hacer realidad un sistema de gestión del conocimiento tengan una formación adecuada, no sólo desde el punto de vista puramente tecnológico, sino también en otras materias como búsqueda y recuperación de información, usabilidad, arquitectura de la información, inteligencia competitiva, gestión documental, comunidades virtuales, recursos de información, etc. La adecuada preparación de los profesionales será una de las claves para que el proyecto funcione. Y puede tener también un efecto en las características de los futuros sistemas, puesto que los fabricantes desarrollan sus productos respondiendo a las exigencias de sus clientes. Pero eso sería materia para otro artículo… Agustí Canals Know-org 9 7. Ba Ya en la primera mitad del siglo XX los especialistas en pragmática lingüística comprendieron la gran importancia que tiene el contexto en la eficacia de todo proceso comunicativo. Parece ser que no sólo en la transmisión de conocimiento, sino también en la creación de éste, el entorno, el contexto, el lugar,...lo que los japoneses llaman "ba", juega un papel fundamental. En su artículo del número especial de la California Management Review dedicado al conocimiento y la empresa (http://www.haas.berkeley.edu/News/cmr/contentsKI_.html) titulado “The concept of “Ba”: Building a Foundation for Knowledge Creation”, Ikukiro Nonaka y Noboru Konno toman el concepto de “ba” propuesto por el filósofo japonés Kitaro Nishida para designar “un espacio compartido para relaciones emergentes”. Ese espacio puede ser físico (una oficina, un taller), virtual (una intranet, una videoconferencia), mental (ideas, experiencias, valores compartidos) o bien una combinación de ellos. Tal como expone en su libro “The Knowledge-Creating Company” (http://www.amazon.com/exec/obidos/ ASIN/0195092694/infonomia), para Nonaka la creación de conocimiento es un proceso sin fin, en forma de espiral, formado por diferentes tipos de interacciones entre conocimiento tácito y explícito. El “ba” constituye el entorno necesario para que se produzcan esas interacciones, y debe tener características diferentes según el tipo de interacción. Hace poco tuve la oportunidad de asistir a la lección inaugural del programa de doctorado sobre la Sociedad de la Información y el Conocimiento creado recientemente en mi universidad (http://www.uoc.es/in3/cas/int_ doctorate.htm) a cargo de Manuel Castells. El doctor Castells, profesor de sociología de la Universidad de California en Berkeley y autor de la aclamada trilogía sobre la Era de la Información iniciada con “The Rise of the Network Society” (http://www.amazon.com/exec/obidos/ASIN/0631221409/infonomia), trató varios e interesantes aspectos del tema “Internet y la sociedad red”. Una de las afirmaciones que más me llamó la atención fue que, al contrario de lo que se había predicho, el desarrollo de las redes de comunicación no había provocado un éxodo de los habitantes de los grandes núcleos de población hacia el campo en busca de una pretendida mayor calidad de vida, sino que se observaba una mayor tendencia a la concentración de la población en grandes núcleos urbanos. Para Castells, eso es debido a que los trabajadores de la nueva economía, cuya función principal es crear conocimiento, necesitan materia prima para esa creación. La materia prima es conocimiento proveniente de otras personas, y para entrar en contacto con esas personas hay que estar donde ellas viven: en las ciudades. En los términos de Nonaka, hay una parte del “ba” necesario para la creación de conocimiento que es físico y que, al menos de momento, no puede ser sustituido por el “ba” virtual. Y esto es algo que deberemos tener muy en cuenta cuando hablemos de organizaciones virtuales o de teletrabajo. Por cierto, el esperado “boom” del teletrabajo es, según Castells, otra de las profecías que los datos empíricos obtenidos hasta ahora parecen desmentir… Agustí Canals Know-org 10 7. Utilidad y usabilidad de los sistemas Una de las enormes ventajas que nos proporcionan las tecnologías de la información es que se facilita extraordinariamente la realización de algunas tareas. Lo que antes sólo podían hacer usuarios expertos está ahora al alcance de muchas personas. Esa tendencia, que en general es positiva, puede acarrear también algunos inconvenientes. Según la consultora IDC, el mercado global del software para la gestión del conocimiento va a experimentar un aumento espectacular en los próximos años. De 1.400 millones de dólares en 1999 va a pasar a 5.400 millones de dólares en 2004 (http://www.vnunet.com/News/1112178). Se define esa categoría como “el software utilizado para encontrar, seleccionar, organizar y presentar información para mejorar la comprensión de áreas específicas de interés por parte de los usuarios”. IDC distingue entre dos segmentos de mercado: el de acceso, que incluye los portales de empresa y el software de formación interna de las empresas, y el de infraestructuras, que consiste en las aplicaciones de base de gestión del conocimiento. Para el primer segmento se espera un crecimiento del 46% anual (de 500 millones de dólares en 1999 a 3.300 en 2004), mientras que para el segundo se prevé un crecimiento anual del 31%. A la vista de estos espectaculares crecimientos, es pertinente reflexionar un poco sobre qué dirección pueden tomar en un futuro las soluciones tecnológicas y qué papel pueden jugar en esa evolución los profesionales y las organizaciones que las van a utilizar. En un artículo anterior de este documento señalábamos la necesidad de invertir en la formación de las personas además de hacerlo en sistemas. Y ya allí apuntábamos que el nivel de formación de los usuarios puede tener efectos a largo plazo en la evolución tecnológica de los sistemas de gestión del conocimiento. Si los usuarios no poseen una formación adecuada, tenderán a utilizar sólo las funcionalidades básicas de los sistemas, sin aprovechar las posibilidades más sofisticadas que éstos puedan ofrecer y sin exigir a los fabricantes que éstas mejoren. Como consecuencia, los sistemas evolucionarán hacia soluciones muy fáciles de usar pero que no aprovecharán todas las capacidades que la tecnología podría proporcionar. Este fenómeno, conocido como “dumbing down”, ya se puede observar en algunas funcionalidades como la interrogación de motores de búsqueda. En Internet es muy bueno que cualquiera pueda utilizar un buscador, pero también lo es que los profesionales de la búsqueda y recuperación de información puedan utilizar sus conocimientos para, mediante el uso de lenguajes de interrogación especializados, encontrar resultados mucho más relevantes y eliminar el ruido. Los nuevos sistemas incorporarán ese tipo de herramientas sólo si los profesionales son capaces de utilizarlas, y para ello tienen que estar adecuadamente formados. Al mismo tiempo que velamos por la usabilidad, no debemos descuidar la utilidad de los sistemas actuales y de los futuros (http://www.infonomia.com/extranet/index.asp? idm=1&idrev=1&num=451). ¿Qué opináis al respecto? ¿Creéis que es posible optimizar al mismo tiempo utilidad y usabilidad? Agustí Canals Know-org 11 8. Niveles del conocimiento A menudo oímos a hablar de conocimiento organizacional o de organizaciones que aprenden. Sin embargo, también nos repiten con frecuencia, a veces incluso los mismos, que el conocimiento reside en las personas. ¿Dónde está, pues, el conocimiento? ¿Sólo en las personas o también en las organizaciones? A mi modo de ver, la respuesta a las preguntas anteriores es, como cabía esperar, “Depende”. ¿Y de qué depende? Pues del nivel al cual estemos analizando el problema en cuestión. En su muy interesante libro “The Quark and the Jaguar” (http://www.amazon.com/exec/obidos/ASIN/ 0716727250/infonomia) , el premio Nobel de física Murray Gell-Mann propone una original manera de pensar en la ciencia. Cada una de las distintas ciencias se ocupa de la realidad a un nivel diferente. Así, pues, mientras la física de partículas elementales se ocupa del nivel más fundamental, la química trabaja a un nivel superior (el de los átomos y las moléculas), la biología se ocupa de entidades aún más complejas (las células), y así sucesivamente hasta llegar a la psicología o la sociología. Cada una de las ciencias ocuparía un peldaño de una escalera imaginaria. Podría parecer que, en vista de esto, cada ciencia se podría reducir a la inmediata inferior de manera que sólo conociendo la física bastaría para deducir cualquier ley de ámbito superior. Pero normalmente no es así. Para GellMann, cada uno de los niveles de la escalera opera sobre sistemas que están sometidos a unas condiciones determinadas. La ciencia correspondiente tiene en cuenta esos condicionantes y ello le permite atajar la complejidad y obtener leyes y hacer predicciones. Las ciencias más fundamentales, si no pueden incorporar dichas condiciones, se ven incapaces de dominar la complejidad. Así, la química utiliza el concepto de enlace químico para encontrar sus leyes y hacer sus predicciones. Esas mismas leyes podrían deducirse de las ecuaciones de la física si fuéramos capaces de incorporarles el hecho que las reacciones químicas se producen sólo en unas determinadas condiciones, más o menos similares a las de la superficie de la tierra. Hasta ahora, sólo es posible deducir las leyes químicas a partir de las ecuaciones de la física en los casos más sencillos y utilizando los ordenadores más potentes. Cada ciencia es necesaria a su nivel correspondiente. Podemos aprovechar estas ideas para abordar nuestro problema del conocimiento. Definamos el conocimiento de un agente (no especificamos si una persona, una máquina, un programa de ordenador o una organización), siguiendo la línea de Kenneth Arrow comentada en el artículo número 2 de este documento, como un conjunto de distribuciones de probabilidades que refleja su visión del mundo y que le permite orientar sus acciones. Entonces, podemos considerar el conocimiento como algo que puede ser estudiado a dos niveles. Si nuestro objeto de estudio es la persona, nos situamos a un nivel inferior, más fundamental. Entonces, el agente que consideramos es el individuo y lo que estudiamos es el conocimiento individual que le permite orientar sus acciones ante su entorno, que es tanto el externo a la organización como el interno, incluyendo a los demás integrantes de ésta. Si, por el contrario, pensamos en la organización como agente, nos situamos a un nivel superior, más complejo, en el cual el conocimiento que consideramos es el de la organización como un todo, el que orienta las acciones de ésta. El estudio de este conocimiento aprovechará los condicionantes presentes en las organizaciones. Así, pues, estamos hablando de dos conocimientos diferentes, cada uno a su nivel. Hablaremos de uno o de otro según nuestro objeto de estudio sea el individuo dentro de la organización o la organización misma. Quizás a algunos, como a mí, esta respuesta les deje un poco insatisfechos... Volveremos sobre el tema en los próximos Know-org. Agustí Canals Know-org 12 9. ¿Conocimiento en el fútbol? Vimos en el artículo anterior que cuando hablamos de conocimiento de las personas y cuando lo hacemos de conocimiento organizacional no nos estamos refiriendo a lo mismo. Sencillamente estamos considerando agentes diferentes y nuestra atención se pone en niveles distintos. Sin embargo, sería interesante ver si es posible entender un poco más cómo se relacionan el conocimiento de la organización con el de sus integrantes. Una de las ideas interesantes de la visión de Gell-Mann que presentábamos sobre las ciencias (cada una de las distintas ciencias ocupando un nivel en una escalera) es que es posible construir “puentes” entre los niveles a medida que las ciencias avanzan. Por ejemplo, como apuntábamos, la física puede deducir algunas leyes químicas a partir de sus propias leyes, más fundamentales. O la bioquímica puede explicar resultados de la neurología, y ésta a su vez conocimientos hasta ahora desarrollados, a otro nivel, por la psicología. Se puede intentar algo similar y ver si es posible explicar el conocimiento de la organización a partir del conocimiento de las personas. Podemos considerar que el conocimiento de la organización (es decir, su visión del entorno que le orienta a la hora de actuar) reside a nivel interno en: 1) Las personas: Cada persona posee su conocimiento, y lo utiliza para realizar sus acciones. Hay que tener en cuenta, sin embargo, que los objetivos perseguidos por los individuos no son necesariamente los de la organización. Si queremos que las acciones de los individuos produzcan acciones que estén de acuerdo con los objetivos de la organización, hay que conseguir alinear los objetivos personales con los organizativos mediante el “contrato” adecuado. 2) Las tecnologías de la información: En la mayoría de los sistemas tecnológicos no podemos decir que haya conocimiento propiamente dicho según nuestra definición. Se trata de representaciones del conocimiento en forma de datos que están a la disposición de los agentes (normalmente las personas). Una posible excepción son los sistemas (ya sean los llamados sistemas expertos o aparatos de tipo más simple como un termostato) que actúan según las condiciones del entorno. Entonces si podríamos hablar de un cierto grado de conocimiento. 3) Los procesos: En los procesos establecidos se ha “empaquetado” un conocimiento, generado inicialmente por personas, para permitir una acción automática ante la situación del entorno. De esta manera, puede ser que nadie en la organización posea ese conocimiento (por ejemplo, el necesario para construir una máquina complicada) pero la organización lo utiliza cuando emplea la máquina. Pero, ¿es el conocimiento de la organización explicable sólo como una suma de estos tres elementos? A mi modo de ver, ésta es una visión demasiado reduccionista. La actuación de las organizaciones sobre el exterior no es la misma que correspondería a la suma de las actuaciones sobre el exterior de la organización de los tres elementos anteriores. Hay que añadir algo más, una condición que está presente en las organizaciones humanas: las personas también poseen conocimiento sobre las demás personas, sistemas y procesos del interior de la organización. Y cuanto mejor es ese conocimiento, mejor respuesta puede dar la organización y, por tanto, éste es un ingrediente fundamental del conocimiento organizacional. Pensemos en un ejemplo de organización en la cual la tecnología y los procesos (al menos los formalizados) tienen poca importancia y todo se basa en las personas: un equipo de fútbol. Cualquier aficionado sabe que no se puede hacer un buen equipo simplemente juntando once jugadores individuales, aunque sean los mejores. Hay que conseguir que esos jugadores se compenetren y que lleguen a “jugar de memoria”. Ello significa que cada jugador, además del conocimiento (generalmente tácito) sobre cómo jugar contra el adversario, posee también un conocimiento (mayormente tácito también) sobre la manera de jugar, las habilidades, las virtudes y los defectos de sus propios compañeros, de manera que a la hora de actuar los tiene en cuenta y, como resultado, el juego del equipo se optimiza. Curiosamente, incluso los entrenadores de fútbol son, en el fondo, ¡gestores del conocimiento! Quién lo diría a la vista de algunos personajes… Agustí Canals Know-org 13 10. Congreso Anual de la ASIS (&T) A los que nos dedicamos a la gestión de la información y del conocimiento es muy enriquecedor comprobar su evolución en donde están más desarrolladas... El pasado mes de noviembre tuve la oportunidad de participar en la Reunión Anual de la American Society for Information Science (ASIS) (http://www.asis.org) celebrada en Chicago. El evento me pareció especialmente interesante en varios aspectos, algunos de los cuales no me resisto a comentar aquí. 1) Actitud abierta e interdisciplinariedad: La “Information Science” anglosajona engloba todo el conocimiento relativo a la información—probablemente es lo que más se acerca a la Infonomia (http://www.infonomia.com/infonomia)—y, por lo tanto, la ASIS acoge a todos los profesionales dedicados a alguna de las múltiples facetas de esta ciencia sin distinción de procedencias. Una muestra de dicha actitud abierta es que, observando que el tratamiento de la información es hoy en día indisociable de las tecnologías de la información, la asociación ha pasado a llamarse ASIS&T (American Society for Information Science & Technology). 2) Presencia de la gestión del conocimiento: Entre los profesionales de la información en Estados Unidos se ve con gran interés el auge de la gestión del conocimiento en las organizaciones. El título de la conferencia era “Knowledge Innovations” y ello se reflejaba en diversas conferencias, presentaciones y mesas redondas sobre la teoría, la aplicación práctica y la docencia de la gestión del conocimiento. 3) Actitud proactiva: Ese interés por la gestión del conocimiento se traduce en una actitud proactiva. El lema de la conferencia era “Celebrating Our Heritage, Designing Our Future” (“Conmemorando nuestro patrimonio, diseñando nuestro futuro”). La primera parte hace referencia a la decisiva aportación que deben hacer a la gestión del conocimiento las tradicionales disciplinas de la información como la biblioteconomía, la archivística, la documentación, etc. Sin embargo, la segunda señala que para poder jugar ese papel, los profesionales de la información deben ser capaces de diseñar su propio futuro. Y ello conlleva el esfuerzo de aprender sobre otros ámbitos (tecnologías, gestión de organizaciones, economía, etc.) y el de trabajar integrándose en equipos interdisciplinarios. 4) La información digital arrasa: La práctica totalidad de las comunicaciones dedicadas a sistemas de búsqueda y recuperación de información, documentación, biblioteconomía, etc. se centraban en la información en formato digital, y más concretamente en información accesible a través del WWW. La investigación y la innovación en estos campos se ha concentrado en las posibilidades que ofrece el uso de las tecnologías de la información y la comunicación. 5) Visualización de información: Aunque es algo que los asiduos a Infonomia.com ya saben a través de los artículos de J.C. Dürsteler (http://www.infovis.net), la presencia de varias comunicaciones sobre temas relacionados con la visualización de información en la conferencia anual de la ASIS confirma que éste va a ser pronto uno de los campos “calientes” en el ámbito de la gestión de la información. 6) Innovación en la docencia: Se observó entre los profesionales de la información y, especialmente, entre los profesores de las universidades, una preocupación por los contenidos y las nuevas metodologías docentes. Por una parte, se trata de ofrecer programas educativos que respondan a las necesidades del futuro profesional de la información. Algunas instituciones están incluso ofreciendo ya programas específicos de gestión del conocimiento. Por otra parte, varias universidades están desarrollando proyectos de educación a distancia a través de Internet. Pero también hubo diversión: el congreso me dio la oportunidad de vivir de cerca el espectáculo del recuento de las Elecciones 2000 en Estados Unidos (vean el attículo 9 de la revista Red Pública al cargo de Roc Fages y el artículo 12 de la revista Infovis al cargo de J. C. Dursteler). Ciertamente, un ejemplo paradigmático de mala gestión de información... Agustí Canals Know-org 14 11. El contexto social: comunidades de práctica Es necesario entender el tejido social para saber cómo la tecnología puede ayudarnos... Ésta es la tesis que formulaba John Seeley Brown (http://www.parc.xerox.com/ops/members/brown/jsb.html) en una conferencia pronunciada durante la reunión anual de la ASIS que ya comentamos en el Know-org anterior. Para JSB, debemos huir del determinismo tecnológico que sólo considera la información (o quizás deberíamos decir los datos) que la tecnología puede proporcionar al individuo, sin tener en cuenta que lo que va a dar sentido a los datos y va a permitir elaborar conocimiento va a ser el contexto social en el que se encuentre la persona. Así, pues, si queremos potenciar los procesos de creación y transmisión de conocimiento, no debemos conformarnos con las soluciones puramente tecnológicas o las actuaciones que se basen en considerar a los individuos aisladamente –la perspectiva, dice Brown, de Bill Gates en su libro “The Road Ahead” (http://www.amazon.com/exec/ obidos/ASIN/0140260404/infonomia). Según Brown, debemos tener en cuenta que la comprensión se construye socialmente. Será preciso, pues, conocer los mecanismos sociales que intervienen. Uno de los conceptos más útiles para esa comprensión es el de las llamadas “comunidades de práctica”. La idea de comunidad de práctica se expone en el excelente libro de Etienne Wenger titulado “Communities of Practice: Learning, Meaning and Identity” (http://www.amazon.com/exec/obidos/ASIN/0521663636/infonomia). Es una obra muy rica en profundidad y es difícil resumir su contenido en poco espacio. La idea principal es que el aprendizaje (es decir, la creación y la transmisión de conocimiento) se produce a menudo en el seno de grupos sociales denominados comunidades de práctica. Esas comunidades se configuran en torno a una tarea determinada que los integrantes del grupo deben llevar a cabo. Dentro de la comunidad, la tarea y el aprendizaje se realizan simultáneamente, de manera que no se puede separar uno de otro. El ejemplo que analiza el autor es el del conjunto de trabajadores de una compañía de seguros que se encargan de procesar las peticiones de los asegurados y decidir si procede o no el pago de las cantidades reclamadas. Incluso en una tarea que parece tan claramente reglamentada como ésa, se hace evidente que sería imposible su realización sin los pequeños trucos que los miembros de la comunidad van ideando y transmitiendo, la ayuda que los veteranos prestan a los que empiezan o el ambiente agradable que hace más llevadera la aburrida tarea. En las comunidades, la práctica no es tan solo algo funcional, es un proceso por el cual experimentamos el mundo y éste adquiere sentido. Para Wenger, una comunidad de práctica se constituye en torno a tres dimensiones: 1) Un compromiso mutuo de los integrantes para la realización de la práctica concreta. Ese compromiso define la pertenencia a la comunidad. 2) Una tarea conjunta, que se negocia entre los miembros de la comunidad. 3) Un repertorio compartido de rutinas, palabras, herramientas, maneras de hacer las cosas, historias, gestos, símbolos, acciones o conceptos que la comunidad ha producido o adoptado y que se han convertido en parte de su práctica. Podemos encontrar comunidades de práctica en muchos ámbitos, dentro y fuera del trabajo, y cada uno de nosotros puede pertenecer a varias comunidades (por ejemplo, el departamento de la empresa donde trabajamos, un equipo de fútbol, una comunidad virtual sobre videojuegos o una sociedad literaria). Además, las distintas comunidades pueden interaccionar influyéndose mútuamente e incluso agruparse constituyendo lo que Wenger llama constelaciones de comunidades. Dentro de las organizaciones se forman espontáneamente comunidades de práctica y muchas veces una organización constituye una constelación de comunidades. Es en el seno de las comunidades donde se llevan a cabo la mayor parte de los procesos de creación y transmisión de conocimiento. Por tanto, será necesario tener en cuenta este contexto social a la hora de diseñar los sistemas de gestión del conocimiento. Mientras estaba escuchando la conferencia de John Seeley Brown se me hizo evidente la importancia del Agustí Canals Know-org 15 contexto social. Aunque ya había leído su libro, “The Social Life of Information” (http://www.amazon.com/exec/obidos/ASIN/0875847625/infonomia), comentado ya en Extra!-Net (http://infonomia.com/extranet/index.asp?idm= 1&idrev=1&num=505), e incluso había visto su página web y alguna muestra de sus presentaciones, estoy convencido de que el contacto directo y el contexto social adecuado hicieron que la transmisión de sus ideas fuera mucho más efectiva. Como dice Brown, quizás además de “mirar hacia delante” (“look ahead”) tendremos que pensar un poco más en “mirar alrededor” (“look around”). Agustí Canals Know-org 16 12. El siglo de la bioinfonomía Si el siglo XX fue el de la física, el siglo XXI parece que va a ser el de la confluencia de la biología con las tecnologías de la información. El Proyecto Genoma Humano ha demostrado ya la gran importancia de las tecnologías de la información en la generación del conocimiento científico sobre la vida. Pero una vez secuenciado el genoma, dicen los expertos, el verdadero reto es el estudio de las proteínas que se construyen a partir de esos genes. La determinación de la estructura de una proteína es vital para conocer sus funciones y propiedades biológicas. Una vez es conocida la secuencia de aminoácidos que forman una proteína, la configuración espacial que toma esa cadena puede estudiarse por dos vías diferentes, no exentas de dificultades. La vía teórica consiste en el cálculo de la ecuación de Schrödinger (ecuación fundamental de la mecánica cuántica) que representa la molécula en cuestión. Hasta el momento, para moléculas grandes como las proteínas, la solución directa de la ecuación no es posible debido a la gran complejidad de cálculo que supone. Debemos conformarnos con un resultado aproximado que aprovecha la relativa similitud de la molécula en cuestión con otras ya conocidas. La vía experimental consiste en la utilización de tecnologías como la resonancia magnética nuclear (RMN) o la cristalografía y difracción de rayos X. La primera sólo es viable para las proteínas más pequeñas y la segunda requiere que la proteína sea cristalizada. Las tecnologías de la información juegan un papel decisivo en estas metodologías. Basta con constatar que el heredero del célebre superordenador Deep Blue de IBM, que se prevé va a ser 500 veces más potente que cualquier ordenador actual, va a dedicarse precisamente al modelado teórico de los procesos de plegamiento de las proteínas que dan lugar a su estructura y va a llamarse Blue Gene (http://www.no.ibm.com/nyheter/des99/bluegene.html). Sin embargo, como señala Roderic Guigó en su muy interesante artículo titulado “Bioinformática ¿una ciencia sin científicos?” en el número 18 de la revista Quark (http://www.imim.es/quark/num-18/Default.htm) dedicado a Internet y el Genoma Humano (debo agradecer a Lluís Codina que lo hiciera llegar a mis manos), lo más difícil va a ser el tratamiento de la ingente cantidad de información que se genera. Para poder destilar verdadero conocimiento va a ser imprescindible una especial incidencia en la gestión de información. He detectado ya esa tendencia últimamente en varios artículos y presentaciones. Por ejemplo, en un foro sobre gestión del conocimiento, Igor Jurisica, investigador de la Universidad de Toronto, presentaba una metodología para detectar en qué condiciones las proteínas cristalizan. Como hemos dicho, conseguir la cristalización es un paso imprescindible para determinar su estructura a través de espectroscopia de rayos X. El problema es que cada proteína cristaliza en unas determinadas condiciones de temperatura, pH, concentración, etc. Un sistema de decisión diseñado por un equipo interdisciplinario (formado por bioquímicos, informáticos y especialistas en información) permite, después de realizar automáticamente decenas de miles de pruebas combinando las posibles condiciones, identificar los patrones de crecimiento de cristales mediante técnicas de visión computerizada que comparan cada prueba con una base de conocimiento previa. En un artículo del interesante suplemento The Economist Technology Quarterly de diciembre de 2000 titulado “After the Genome” (http://www.economist.com/displayStory.cfm?Story_ID=442946) se hace un repaso de las más avanzadas tecnologías en el estudio de las proteínas. En la mayoría de ellas la gestión de información juega un papel cada vez más determinante. Finalmente, en otro reciente artículo de The Economist (“Utterly predictable”, The Economist, 23/12/2000), se presenta una nueva manera alternativa de determinar la estructura de las proteínas, que consiste en la utilización de redes neuronales que se sirven de la información sobre la estructura que adoptan proteínas conocidas para predecir cuál va a ser la de proteínas desconocidas. La red neuronal se “entrena” con las secuencias y estructuras de las proteínas conocidas. Posteriormente, a partir de cualquier secuencia puede proponer una estructura espacial para la proteína en estudio. Pura gestión de información. ¿Habrá llegado la hora de los bioinfonomistas? Sea o no el de la bioinfonomía, mis mejores deseos para este siglo que empieza. Nota: Debo agradecer a mi hermano Albert Canals sus detalladas explicaciones sobre el fascinante mundo de la bioquímica de proteínas. Agustí Canals Know-org 17 13. e-science Internet está transformando también un sistema que parecía tan sólidamente establecido como el de la comunicación entre los científicos. Probablemente, uno de los sistemas más antiguos para gestionar el conocimiento es el que utiliza la comunidad científica desde hace cientos de años. Además de difundir los resultados obtenidos por los científicos, el sistema ha servido para asegurar, en la medida de lo posible, el rigor y la validez de lo publicado. El procedimiento habitual solía consistir en que, una vez completada una investigación, los resultados se sometían para su publicación a alguna de las diferentes revistas especializadas en forma de artículos. Para ser publicados, dichos artículos debían superar la aprobación de uno o varios evaluadores (“referees” o “peers”), que eran científicos de reconocido prestigio. El procedimiento era lento y bastante caro, pero aseguraba un elevado nivel de calidad. Una vez un artículo había superado el filtro de la revisión, su contenido podía ser considerado como válido para engrosar el conocimiento científico. Sin embargo, en algunas disciplinas, como por ejemplo la física de partículas elementales, los desarrollos se sucedían con tanta rapidez que la comunidad científica no podía esperar a que los artículos superaran los lentos procedimientos habituales. Los científicos optaron entonces por enviar los manuscritos, al mismo tiempo que los sometían a las revistas correspondientes, a sus colegas de otras instituciones en forma de lo que se llamaron “preprints”. Aún así, un resultado no se consideraba definitivo hasta que había sido publicado por una revista de prestigio. Internet ha cambiado todo ese proceso radicalmente. Ya a finales de los años ochenta recuerdo que dentro de la comunidad de investigadores en física teórica (entre los cuales me encontraba entonces) empezaba a utilizarse de manera regular el correo electrónico para comunicar resultados científicos, realizar investigaciones conjuntas e incluso mandar algunos “preprints” en formato electrónico en lugar del tradicional correo. Pero con el World Wide Web el efecto ha sido mucho más profundo. Los “preprints” se envían en formato electrónico a una serie de servidores de manera que instantáneamente toda la comunidad científica puede acceder a ellos. Este sistema ha provocado cambios muy importantes no sólo en la manera de comunicar los resultados científicos, sino también en la manera de trabajar de los investigadores. Aún existen las revistas impresas, y son las que finalmente sancionan los resultados, pero la ciencia del día a día se hace en el medio electrónico. Me contaba un amigo cómo había cambiado su tarea de investigador. Por ejemplo, con sólo hacer una simple búsqueda le era posible encontrar todo lo que se estaba haciendo sobre un determinado tema en todo el mundo. Pero eso podía hacerlo cualquiera. Por tanto, se producía una aceleración del ritmo de obtención de resultados y un aumento de la competencia. Como consecuencia, se generaba una mayor presión para publicar resultados antes de que alguien más lo hiciera, con el riesgo de no hacer las debidas comprobaciones o bien publicar resultados intrascendentes. Incluso se daba el caso de documentos que, una vez enviados al servidor correspondiente, al comprobar el mismo autor (quizás por las indicaciones de otro científico) que contenían un error eran sustituidos por una nueva versión, de manera que el mismo documento ya no era algo fijo sino que evolucionaba con el tiempo. Pensé en ese momento que sería interesante que alguien estudiara ese fenómeno que se estaba produciendo en algunas disciplinas científicas y que probablemente se extendería a muchas más, y posiblemente también a otros ámbitos. Por eso me alegró, al recibir el número del pasado diciembre del Journal of the American Society for Information Science (http://www.asis.org/Publications/JASIS/jasis.html), ver que contenía un especial precisamente sobre ese tema. En él pueden encontrarse varios interesantes artículos (http://www.asis.org/Publications/JASIS/ vol51n14.html) sobre los cambios en el sistema de comunicación científica y los efectos que éstos comportan. Cabe destacar entre ellos una descripción del nuevo paradigma de Agustí Canals Know-org 18 comunicación científica que está apareciendo, a cargo de Julie M. Hurd, de la University of Illinois en Chicago (http://www.uic.edu/homeindex/) y una aportación de Rob Kling y Geoffrey McKim del Center for Social Informatics del SLIS de la Indiana University (http://www.slis.indiana.edu/CSI/), del que ya habló Alfons Cornella en Extra!-Net (http://www.infonomia.com/ extranet/index.asp?idm=1&idrev=1&num=505). En este artículo los autores señalan las diferencias en la adopción de las nuevas tecnologías en la comunicación científica entre las diferentes comunidades científicas. Nuevamente se demuestra la importancia de los factores sociales en la creación y transmisión de conocimiento en las comunidades de práctica, tema que ya tratamos en el número 11 de Knoworg . Es indudable que todos estos sistemas pueden contribuir a la mejora de la investigación científica en ciertos campos. Sin embargo, hay aún algunos aspectos a resolver antes de que puedan desaparecer las revistas tradicionales. Por ejemplo, cómo se asegura el rigor o la ausencia de fraudes científicos, o bien de dónde va a salir el dinero para sufragar el sistema de “referees” si desaparecen las subscripciones de las bibliotecas a las revistas tradicionales. Hay algunas posibles respuestas (ver el artículo “Will journal publishers perish?”, The Economist, 13/05/2000) pero parece que por algún tiempo aún convivirán los medios electrónicos con los tradicionales... Agustí Canals Know-org 19 14. Ideas originales en GC Hay ideas sobre la gestión del conocimiento que, por repetirse, parecen indiscutibles. A veces es necesario revisar lo que damos por sentado. Veamos un par de ejemplos. En la gran cantidad de literatura que genera la gestión del conocimiento a menudo aparece la idea siguiente: el conocimiento está en las personas. Hasta cierto punto, podemos aceptar este enunciado (ya hablamos sobre este tema los números 8 y 9 de Know-org). Sin embargo, ello no significa que todo conocimiento sea individual. Los estudios sobre comunidades de práctica (número 11 de Know-org) o sobre “core competences” demuestran que existe un tipo de conocimiento que no pertenece exclusivamente a un individuo sino a todo un grupo social. Podríamos diferenciar, entonces, entre conocimiento individual y conocimiento grupal. Uno de los libros más citados en gestión del conocimiento es “The Knowledge-Creating Company” (http://www.amazon.com/exec/obidos/ASIN/0195092694/infonomia), de Ikujiro Nonaka y Hirotaka Takeuchi. En esta obra se plantea un mecanismo de creación de conocimiento según el cual ésta se produce a través de sucesivas transformaciones entre conocimiento tácito y conocimiento explícito. Si el conocimiento tácito puede transformarse en explícito y viceversa, podemos pensar que existe un sólo conocimiento que puede presentarse en las dos formas. Sin embargo, eso no parece tan claro. Cuando aprendemos a ir en bicicleta, por ejemplo, aunque nos hayan transmitido el conocimiento explícito sobre cómo hacerlo, debemos construir nuestro propio conocimiento tácito hasta que logramos montar con soltura. Así, algunos autores proponen que el tácito y el explícito son dos tipos independientes de conocimiento y que no puede transformase uno en otro. Basándose en estas dos ideas, Scott Cook y John Seeley Brown presentan un modelo alternativo de generación de conocimiento. En su artículo “Bridging Epistemologies: The Generative Dance Between Organizational Knowledge and Organizational Knowing”, publicado en la revista Organization Science (Julio-Agosto 1999), utilizan la separación entre conocimiento tácito y explícito y entre conocimiento individual y conocimiento grupal para definir cuatro formas de conocimiento que corresponden a las combinaciones de esas categorías. Existiría un conocimiento individual explícito, que ellos genéricamente llaman “conceptos”; un conocimiento grupal explícito, las “historias”; otro conocimiento individual tácito, las “habilidades” y un conocimiento grupal tácito, que los autores designan con el término “géneros”. En este modelo las cuatro formas de conocimiento son totalmente independientes, de manera que no se puede transformar una en otra de manera directa. La cuestión es entonces cómo se pueden combinar diferentes tipos de conocimiento y construir unos a partir de los demás. La solución que proponen los autores es la introducción de un concepto complementario al de conocimiento (“knowledge”) que ellos llaman “conocer” (“knowing”). La diferencia consiste en que, mientras que el conocimiento es algo que se posee, algo estático, el conocer es algo que se produce en el momento de la acción, algo dinámico. Es ese conocer el que permite, a través de la acción, la utilización de las diversas formas de conocimiento para realizar las actividades concretas y, al mismo tiempo, generar nuevo conocimiento. Se produce una complementariedad entre lo que los autores llaman la epistemología de la posesión, la del conocimiento, y la epistemología de la práctica, la del conocer. La conjunción de los dos procesos permite el desarrollo de procesos dinámicos en los cuales a través de la acción se contrasta el conocimiento con el contexto en el cual debe aplicarse. Gracias a la suma de conocer y conocimiento podemos entender la relación entre lo que conocemos y lo que hacemos. Es un modelo algo complejo y abstracto, pero interesante en la medida en que cuestiona algunas de las ideas que a veces damos por supuestas. Agustí Canals Know-org 20 15. Testimonios del pasado La tecnología es un elemento extremadamente útil para el almacenamiento de información, pero a veces puede ser un inconveniente. Las tecnologías de la información y la comunicación nos permiten avanzar en el desarrollo de sistemas cada día más eficientes de organización, búsqueda y recuperación de información. De esta manera podemos almacenar y recuperar a voluntad una infinidad de elementos que constituyen la representación de una parte importante del conocimiento que poseemos. En algunos casos, las nuevas tecnologías nos permiten incluso acceder a conocimiento que creíamos perdido para siempre. Durante las excavaciones llevadas a cabo hace unos 250 años en la ciudad romana de Herculano, que fue sepultada en la gran erupción del Vesubio en el año 79 a.C. junto con Pompeya, se encontraron unos 1.200 manuscritos en rollos de papiro pertenecientes a la magnífica biblioteca del filósofo y poeta Filodemo (http://www.humnet.ucla.edu/humnet/classics/Philodemus/Philhome.htm). Sólo 800 rollos han sido desplegados y de ellos sólo ha sido posible leer un 10% del contenido debido a su mal estado de conservación. En la mayoría de los casos no se puede ni saber de qué obra se trata. Se sospecha que entre ellos puede haber obras de Aristóteles, Arquímedes o Virgilio entre otros, algunas de las cuales se habían perdido y sólo se sabía de ellas por referencias de otros autores. Y la importancia del yacimiento puede ser aún mayor si, como creen algunos, aún está sepultado el resto de la biblioteca con decenas de miles de manuscritos. Hace poco, unos expertos de la universidad de Bringham Young de Salt Lake City en Estados Unidos han anunciado que la aplicación de nuevas tecnologías digitales va a permitir la lectura de hasta un 30% del contenido de esos papiros (http://www.imaging.org/conferences/PICS2001/ details.cfm?pass=50). Sin embargo, vemos la otra cara de la moneda cuando la tecnología, debido a su propia dinámica, se convierte en un impedimento para la recuperación de la información almacenada. Casi todos hemos experimentado la desagradable sensación de no poder acceder a un archivo donde teníamos una información preciosa porque éste estaba creado en una versión demasiado antigua del procesador de textos (las estrategias de marketing obligan a sacar nuevas versiones con frecuencia), o peor aún, en un procesador de textos pasado ya a mejor vida. Ya existe en el mundo una gran cantidad de información que está almacenada en soportes obsoletos. Algunos de ellos pueden todavía ser leídos porque se han conservado modelos antiguos de hardware y software para esa función, pero la información contenida en otros muchos es imposible de recuperar. Como me decía Alice Keefer, experta en la preservación de recursos de información, las consecuencias de esta situación pueden llegar a ser más graves de lo que pensamos a primera vista. Sólo imaginemos, por ejemplo, que de pronto nos damos cuenta de que no podemos acceder a una base de datos donde se había guardado la localización de los puntos geográficos en los que se habían enterrado vertidos radioactivos… Evitar la pérdida de la información almacenada a causa de la obsolescencia de los sistemas va a ser una responsabilidad cada vez más importante de los gestores de información. Ya hay instituciones que tienen como una de sus prioridades garantizar el acceso y la conservación de la información que se almacena en formato digital. Éste es el caso, por ejemplo, de la “Cite des Archives Contemporaines” que los Archivos Nacionales de Francia tienen en la ciudad de Fontainebleau (debo agradecer esta información a Ramon Alberch, “Arxiver en cap” del ayuntamiento de Barcelona). A veces no está de más reconocer las ventajas de la tecnología de almacenaje de información de los antiguos romanos; o la más sólida aún de los antiguos egipcios que, a través de los grabados en la piedra en sus innumerables monumentos nos legaron la posibilidad de aproximarnos a su fascinante civilización. ¿Hubiera sido eso posible si la piedra roseta hubiera estado en un disket de 5”1/4? Aunque para comprender mucho mejor esos tiempos antiguos, nada como el conocimiento tácito que se adquiere, por ejemplo, paseando por las calles de Pompeya. Y aún más si, como fue mi caso, tienes ocasión de hacer la visita en compañía de un buen amigo entusiasta de la arqueología y la historia antigua. Agustí Canals Know-org 21 16. Indicios del futuro La información relevante que la organización sea capaz de obtener es clave en la gestión del conocimiento por partida doble. Por una parte, es obvio que la información nos sirve para aumentar el conocimiento. Pero, por otra, es necesario tener en cuenta también cómo la información nos permite mejorar los procesos que diseñamos para la gestión del conocimiento. Como en todo proceso de gestión en las organizaciones, cuanta más información poseemos, mejor podemos decidir las líneas de actuación. Así, por ejemplo, supongamos que debemos diseñar un proyecto de gestión del conocimiento en el cual queremos poner a la disposición de toda la organización el conocimiento que poseen sus integrantes, incorporándolo en forma explícita en las bases de datos de un repositorio. Independientemente de la metodología y la tecnología empleadas, es claramente imposible que podamos abarcar todo ese conocimiento. Debemos priorizar algunos aspectos. Pero, ¿cuáles? Nuestro objetivo es que el conocimiento almacenado sea útil en las situaciones que tenga que afrontar la organización. El problema es que no sabemos con certeza cuáles van a ser esas situaciones. Pero eso no quiere decir que no podamos hacer nada. De hecho, en la mayoría de los procesos de decisión hay un elemento de incertidumbre. Raras veces conocemos todo lo que se refiere a la situación sobre la cual decidimos. Una parte de ese desconocimiento es inevitable, pues no podemos saber con certeza cómo va a ser el futuro. Sin embargo, hay información que existe en la actualidad, que es poseída por otros agentes, y que si la obtenemos nos permitirá decidir más adecuadamente. Además, aunque no podamos conocer el futuro, la información adecuada puede servirnos para reducir el grado de incertidumbre, ya que, o bien nos proporciona indicios que ayudan a predecir algunos aspectos de ese futuro o nos permite asignar probabilidades más ajustadas a las distintas posibilidades que el futuro nos puede deparar. Dos libros que he estado leyendo últimamente me han sugerido esta reflexión. El primero es un libro de divulgación, accesible y muy interesante de Peter L. Bernstein: “Against the Gods: The Remarkable Story of Risk” (http://www.amazon.com/exec/obidos/ASIN/0471295639/infonomia). Se trata de un ensayo donde se describe el papel que el riesgo ha desarrollado a lo largo de la historia y el tratamiento que ha tenido por parte del hombre. En él, el autor expone una curiosa idea: lo que señala la frontera entre la era moderna de la humanidad y los tiempos antiguos no es la ciencia, la tecnología ni la política, sino el tratamiento racional de lo que nos depara el futuro, el concepto de riesgo. Es a partir de la teoría de la probabilidad que el hombre empieza a considerar el futuro como algo que se puede tratar de forma racional —y, por tanto, tomar decisiones de cierto riesgo calculado— y no algo reservado a los oráculos y, en definitiva, a la voluntad de los dioses. El segundo libro es más técnico y requiere algunos conocimientos previos de análisis económico y matemáticas. Se trata de “The Analytics of Uncertainty and Information” (http://www.amazon.com/exec/obidos/ ASIN/0521283698/infonomia), de Jack Hirshleifer y John G. Riley, profesores del Departamento de Economía de la Universidad de California en Los Ángeles. Para mí lo más interesante es su enfoque. A lo largo de su historia, el análisis económico ha debido tener siempre muy en cuenta el fenómeno de la información. Éste aparece cuando los actores económicos toman decisiones, cuando diseñan estrategias, cuando se producen asimetrías en lo que los distintos actores conocen o se echa en falta cuando se producen situaciones de incertidumbre. Sin embargo, raras veces se ha tomado la información como elemento nuclear a partir del cual se puede ordenar la teoría económica. La obra de Hirshleifer y Riley es un paso en esa dirección. Así, el libro tiene dos partes. En la primera, bajo el título de “Economía de la incertidumbre” se abordan las situaciones en las cuales deben tomarse decisiones óptimas sobre el futuro, desconociendo cómo va a ser éste, y se presentan los principales logros del análisis económico en este ámbito. Posteriormente, en la segunda parte titulada Agustí Canals Know-org 22 “Economía de la Información” se toma la información como hilo conductor y se incide en el tratamiento que la teoría económica hace de los distintos problemas en los cuales la información tiene un papel relevante. Se habla, por ejemplo, de la información como bien público, de las decisiones sobre investigación y desarrollo, de las asimetrías de información y el diseño de contratos, de la aplicación de la teoría de juegos a las situaciones estratégicas, de la economía de las subastas o de los fenómenos de segmentación (“screening”) y señalización (“signaling”) en situaciones de información oculta. Algunas voces propugnan que el papel preponderante de la información y el conocimiento en la nueva economía requieren una nueva ciencia económica. Quizás eso sea cierto, pero también es verdad que el análisis económico actual incorpora ya muchos elementos interesantes al respecto. Si queremos desarrollar una teoría sólida de la información y de la gestión del conocimiento deberemos tener muy en cuenta esos aspectos. Agustí Canals Know-org 23 17. Prisioneros del dilema Uno de los problemas principales para un responsable de gestión del conocimiento es conseguir que el conocimiento sea compartido. Para cualquier trabajador del conocimiento supone un esfuerzo suplementario poner a disposición de sus compañeros lo que ha aprendido en su quehacer diario. Ya sea, por ejemplo, introduciendo información en una base de datos o bien difundiendo experiencias en una comunidad virtual, compartir conocimiento requiere una dedicación extra que sólo se producirá cuando el empleado perciba claramente los beneficios que le proporciona. Algunas empresas utilizan sistemas de incentivos para conseguir ese fin. En un artículo de octubre de 2000 en la revista Knowledge Management titulado “Incentives for Sharing” (http://www.destinationcrm.com/km/dcrm_ km_article.asp?id=430&ed=10%2F1%2F00) se presentan una serie de estrategias que utilizan algunas compañías para fomentar la ‘compartición’ de conocimiento: 1.- Seleccionar empleados proclives a compartir. Ya en la selección de personal se escogen colaboradores que demuestren una propensión a trabajar en equipo y compartir experiencias. Para ello se involucra a los empleados actuales en el proceso (Collective Technologies). 2.- Desarrollar un clima de confianza. Se parte de la creencia de que se va a compartir conocimiento cuando impere una atmósfera de confianza. Así, empezando por un código ético, se trata de fomentar una cultura de reconocimiento en la cual se premie la contribución de los individuos al bien común (Buckman Laboratories). 3.- Fomentar la ‘compartición’ como valor central. En las actuaciones, sistemas y valoraciones de la compañía en cualquier ámbito hay que subrayar la importancia de compartir conocimiento. Cada empleado debe sentirse animado a compartir en su parcela y en la manera adecuada a su función (Cap Gemini, Ernst & Young). 4.- Establecer programas de reconocimiento de la ‘compartición’ de conocimiento. Es esencial para motivar las acciones en ese sentido y para demostrar el interés y el compromiso de la dirección (Harris Government Communications Systems). 5.- Reorganizar adecuadamente. Parece demostrado que la gente comparte en mayor medida con los integrantes de su mismo equipo. Por lo tanto, es aconsejable que cada empleado pertenezca a varios equipos dentro de la organización (Northrop Grumman Air Combat Systems). 6.- Crear comunidades. Como vimos en un artículo anterior de Know-org, la creación de comunidades de práctica en torno a intereses comunes es fundamental para la transmisión de conocimiento. La utilización de intranets permite crear comunidades virtuales sin barreras de espacio y tiempo (World Bank). 7.- Fomentar la aparición de líderes. A veces, un pequeño grupo de entusiastas de la gestión del conocimiento puede actuar como catalizador arrastrando a toda una organización (Capital One Financial). Podríamos enumerar más “recetas”, pero lo fundamental para que esos incentivos surgan efecto es que en la cultura general de la organización, la ‘compartición’ de conocimiento se perciba como un valor apreciado y, por lo tanto, reconocido. Una acción aislada no consigue nada si el resto de las actuaciones de la organización no siguen la misma línea. Por ejemplo, si en un equipo de ventas se premia al comercial que consigue la cifra de facturación más alta, difícilmente se conseguirá que los mejores compartan sus tácticas de venta con los demás, aunque formalmente se anime ese comportamiento. Pero, ¿es eso suficiente? Para entender un poco mejor los mecanismos que intervienen, podemos profundizar en el análisis de la ‘compartición’ de conocimiento desde otro punto de vista, examinando los motivos individuales para compartir. Pensemos en un individuo, llamémosle R, que actúa según un estricto criterio racional de costebeneficio. ¿Por qué va a tomarse la molestia de compartir su conocimiento con los demás si eso significa un esfuerzo Agustí Canals Know-org 24 añadido? Está claro que para el colectivo lo mejor es compartir el conocimiento, pero analicemos la situación en detalle desde el punto de vista individual: R tiene dos opciones, compartir o no compartir. Supongamos que los compañeros de R comparten su conocimiento con él. Obviamente, desde un punto de vista puramente egoísta, para R lo más rentable es no compartir. Así se aprovecha del conocimiento de los demás sin dar nada a cambio (comportamiento conocido como “free rider”). Si, por el contrario, sus compañeros no comparten el conocimiento, nuevamente la mejor estrategia de R es no compartir, pues de lo contrario sus compañeros se aprovecharían de su conocimiento y esfuerzo, y R no recibiría nada a cambio. Así, la mejor estrategia es siempre no cooperar. Este tipo de situaciones donde la actuación óptima (o “estrategia dominante”) para cada participante es no cooperar mientras que lo óptimo para el colectivo sería que todo el mundo cooperase se conoce en teoría de juegos como “dilema del prisionero”. Y es un dilema que, planteado de esta manera, no tiene solución. ¿Quiere eso decir que es una utopía pensar en conseguir que se comparta de verdad el conocimiento sin introducir compensaciones adicionales? No exactamente. En un próximo Know-org veremos que posteriores desarrollos en la aplicación de la teoría de juegos aportan resultados más esperanzadores. Agustí Canals Know-org 25 18. Instinto de cooperación Aunque parezca que no compartir el conocimiento sea la estrategia más rentable, en un marco social como las organizaciones eso no está tan claro. En el artículo anterior de Know-org vimos que en situaciones de “dilema del prisionero” (DP) la estrategia dominante desde un punto de vista de teoría de juegos era la no cooperación. Según ese resultado, un responsable de gestión del conocimiento difícilmente podría conseguir que cada integrante de la organización pusiera a disposición de los demás lo que conoce. Sin embargo, una organización es un sistema social, formado por personas y que tiene una continuidad en el tiempo. Eso hace que deba tenerse en cuenta otros factores. A nivel social se producen a menudo situaciones de DP. Pensemos en los casos en que varios individuos comparten unos recursos comunes. Por ejemplo, si el conjunto de los pescadores de una zona no pone un límite a las capturas, el resultado final es que las especies del lugar se extinguirán, acabando con la actividad pesquera. Pero cada pescador puede pensar egoístamente que para él lo mejor es capturar el máximo número de peces. Actualmente estamos viviendo otro caso de DP en la política internacional. Todos los países están de acuerdo en que hay que disminuir las emisiones contaminantes, pero es muy difícil conseguir que cada país se comprometa a reducir las suyas. En algunas de esas ocasiones, sin embargo, a menudo observamos cooperación. ¿Por qué? Una posible explicación es que en los sistemas sociales las situaciones de DP no se producen aisladamente sino que se repiten en el tiempo. Así, quien no coopere una vez puede ser “castigado” en posteriores ocasiones. De hecho, Robert Axelrod (http://www.amazon.com/exec/obidos/ASIN/0465021212/infonomia) demostró mediante simulaciones matemáticas por ordenador que la estrategia más adecuada en una situación de DP repetida es la conocida como “tit-for-tat”, que consiste en empezar cooperando y posteriormente “pagar con la misma moneda” a la otra parte. Es decir, no cooperar con quien no lo haya hecho en la ocasión anterior y cooperar con quien sí lo haya hecho. Así, el “ojo por ojo” bíblico parece ser la mejor estrategia. Alguien puede objetar que cuando tomamos una decisión no lo hacemos después de complicados cálculos y simulaciones matemáticas. De acuerdo. A menudo actuamos basándonos en el instinto. Pero ¿qué son los instintos? Pues, como muy bien explica Matt Ridley en el muy interesante libro The Origins of Virtue (http://www.amazon.com/exec/obidos/ASIN/0140264450/infonomia), los instintos son respuestas automáticas que nuestra especie ha ido desarrollando a lo largo de los siglos y que deben ser las que mejores resultados dan, pues han superado la criba de la selección natural. Así, probablemente—y sin saberlo—nuestros instintos incorporan la colaboración (hasta cierto punto, y siempre y cuando sea posible “castigar” a los “tramposos”) como comportamiento social óptimo. Por mucha tecnología que utilicemos, la gestión del conocimiento debe basarse también, queramos o no, en instintos desarrollados hace cientos de miles de años por nuestros antepasados cuando dejaron los árboles para adaptarse a la sabana africana. Nota: Una introducción muy entretenida al dilema del prisionero y a la teoría de juegos, así como a la vida de su creador John von Neumann, puede encontrarse en el libro de William Poundstone Prisoner’s Dilemma (http://www.amazon.com/exec/obidos/ASIN/038541580X/infonomia). Agustí Canals Know-org 26 19. Creación de capital social La creación de capital social en las organizaciones requiere disponer de espacio y de tiempo... y poder contar historias. De un tiempo a esta parte, parece que el énfasis en la gestión del conocimiento está pasando de la tecnología y el capital intelectual individual a los aspectos más sociales. Como nos decía Alfons Cornella en uno de sus mensajes (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=570), se está escribiendo cada vez más sobre la importancia del capital social de las organizaciones. Uno de los últimos trabajos aparecidos sobre el capital social es el libro In Good Company: How Social Capital Makes Organizations Work, de Don Cohen y Laurence Prusak. En él los autores, de reconocido prestigio en el campo de la gestión del conocimiento- el primero es editor de la revista Knowledge Directions, y el segundo es director del IBM Institute for Knowledge Management y coautor del libro Working Knowledge, referencia obligada en este ámbito (http://www.amazon.com/exec/obidos/ASIN/1578513014/infonomia)-, plantean algunas interesantes reflexiones. Quizás uno de los aspectos más interesantes del punto de vista que aporta el concepto de capital social es que introduce matices en la idea de la organización como un conjunto de individuos unidos por contratos. La idea es que esos contratos contemplan mucho más que una determinada retribución económica o un desarrollo profesional. Cada uno de nosotros esperamos de las organizaciones en las que nos integramos, o con las que colaboramos, que contribuyan a satisfacer también nuestras necesidades de interacción social, reconocimiento o incluso afectividad. Las empresas que consiguen eso acaban viéndolo reflejado en sus resultados. Para Cohen y Prusak, el capital social se construye básicamente en el seno de dos tipos de grupos: las comunidades y las redes. De las comunidades ya hablamos en el artículo 11 de Know-org. Las redes se diferencian de las comunidades en que no tienen un objetivo común tan marcado, las relaciones son mucho menos estrechas y no hay una frontera tan clara entre el interior y el exterior. Cada uno de nosotros posee una red de contactos con los cuales se unen múltiples tipos de relaciones de variada intensidad, pero que constituyen un capital social innegable. Un elemento imprescindible para que el capital social se desarrolle en comunidades y redes es la confianza. Como dicen los autores del libro, la confianza es el lubricante del capital social. Si queremos que el conocimiento fluya por la organización, los individuos deben percibir que se actúa con respeto y se juega limpio. Entre las acciones posibles para fomentar la creación de capital social, los autores señalan dos como fundamentales. Una es facilitar espacio y tiempo. La otra es fomentar la conversación, en especial la transmisión de historias. Para construir lazos sociales es imprescindible que haya los espacios adecuados, físicos y temporales. Las oficinas sin lugares donde se pueda charlar informalmente dificultan enormemente la creación de relaciones sociales, al igual que las jornadas laborales que no dejan tiempo para el contacto distendido con los compañeros. La función de la conversación en la creación de capital social es indiscutible. Uno de los métodos más potentes para construir capital social son las historias, reales o ficticias, que van pasando de unos a otros en una organización. Las historias tienen la virtud de transmitir de manera muy efectiva las normas, valores, actitudes y comportamientos de los grupos sociales. Incluso los aparentemente inútiles chismes, habladurías o murmuraciones contribuyen a transmitir lo que se considera importante y cómo se valoran las actuaciones de los miembros de la organización. En el fondo, estamos “descubriendo” que lo que funciona en las organizaciones es lo que desde siempre ha funcionado en las sociedades humanas. Millones de años de evolución deben haber servido para algo. Agustí Canals Know-org 27 20. Volatilidad y virtualidad Nuevos factores como la volatilidad de los empleados en el puesto de trabajo y la virtualidad pueden afectar al capital social. (Tiempo estimado de lectura: 3 minutos) En el libro In Good Company de Cohen y Prusak, del que ya hablamos en el artículo anterior , los autores identifican dos factores que pueden dificultar en las organizaciones actuales la consecución de un capital social imprescindible para la creación y la transmisión de conocimiento: la volatilidad y la virtualidad. La volatilidad se refiere al poco tiempo medio de permanencia de un empleado en un puesto de trabajo concreto. Este efecto puede ser causado por el comportamiento del mismo empleado o por la actuación de la organización. Por una parte, la hasta no hace mucho muy popular práctica de las “stock options” y las múltiples oportunidades que surgen a los profesionales son un incentivo constante para el cambio de trabajo. Por otra parte, los frecuentes procesos de fusiones, adquisiciones y cambios de localización geográfica de las áreas de negocio hacen frecuentes las incorporaciones y los despidos y fomentan la movilidad en el puesto de trabajo. Este escenario parece apuntar hacia una economía donde primen los agentes libres y los contratos por proyectos y, según algunos, hacia el fin de la lealtad a la organización como valor. Sin embargo, advierten Cohen y Prusak, estas prácticas pueden resquebrajar uno de los activos más importantes de las organizaciones: el capital social. Si el individuo no permanece en la empresa o en el puesto de trabajo el tiempo suficiente para establecer lazos sociales, la organización sólo será equivalente a la suma de sus empleados. Difícilmente se crearan redes o comunidades que permitan obtener los beneficios derivados de la interacción social. Ante ese riesgo de pérdida de capital social, los autores apuntan un curioso antídoto: ¡fomentar el capital social! Efectivamente, si los profesionales se sienten bien en su organización porque pueden desarrollar también su vertiente social como personas será más difícil que se planteen dejarla, aunque reciban ofertas económicamente más atractivas. Por otra parte, un buen ambiente social puede mantener la cohesión en tiempos duros derivados de reestructuraciones de plantilla, fusiones o adquisiciones. Otro fenómeno reciente que puede afectar al capital social es la virtualidad. El uso de tecnologías como el correo electrónico, las intranets, la videoconferencia o la telefonía móvil hacen posible que muchas actividades puedan realizarse prescindiendo del contacto directo. Cohen y Prusak mantienen que en el estadio tecnológico actual, la virtualidad presenta algunas desventajas respecto a la presencialidad: las tecnologías no pueden abarcar el amplio rango de tipos de comunicación que utilizamos para relacionarnos, las conexiones virtuales tienden a ser breves e intermitentes y con un propósito definido, y la comunicación virtual a través de correo electrónico o videoconferencia tiende a aislar a quien lo está utilizando de su entorno. Quizá eso explique que la profetizada explosión del teletrabajo no se haya producido, como apuntaba Manuel Castells (para más información consultar el artículo 6 de este documento). Está claro que el teletrabajo tiene ventajas importantes tanto para el trabajador como para la empresa, pero también tiene un coste en capital social que puede superar esos beneficios. Sin embargo, multitud de experiencias positivas demuestran la utilidad de la virtualidad. El reto, a mi entender, está en encontrar la manera de aprovechar esa virtualidad para generar capital social en lugar de debilitarlo. Agustí Canals Know-org 28 21. Conocimiento implícito A menudo hablamos de conocimiento tácito y conocimiento explícito, pero... ¿qué hay del conocimiento implícito? (Tiempos estimado de lectura: 3 minutos) Todos sabemos que existe una compañía llamada Coca-cola. Todos sabemos que esa compañía elabora un producto de ese mismo nombre. Todos sabemos que existen máquinas expendedoras de latas de coca-cola. Todos sabemos que podemos encontrar esas máquinas en muchos lugares. Y todos sabemos que en Marte no existen máquinas expendedoras de latas de coca-cola. Pero, ¿cómo sabemos eso? Nadie nos lo ha dicho nunca. Ese conocimiento no nos ha sido transmitido nunca, y sin embargo lo poseemos. Con este ejemplo me explicaba Max Boisot, autor del libro Knowledge Assets (http://www.amazon.com/exec/ obidos/ASIN/019829607X/infonomia) del que ya hablamos en el número 3 de Know-org , el concepto de lo que él llama conocimiento implícito. El conocimiento implícito es todo aquél que damos por supuesto, aquél que no vemos necesidad de explicitar porque nos parece evidente. Sin embargo, ese conocimiento es fundamental para la comunicación y, por tanto, para la transmisión de nuevo conocimiento. Es un común denominador necesario para que nos podamos entender, un contexto que hace posible la comunicación. El problema viene cuando pretendemos construir un sistema de gestión del conocimiento que sea capaz de almacenar el conocimiento de la organización y al que toda persona que necesite ese conocimiento pueda acudir para adquirirlo. Quien aporta el conocimiento a ese sistema debe suponer un cierto nivel de conocimiento implícito común con los que vayan a utilizarlo. Y eso es muy difícil, ya que a priori no se sabe quiénes van a ser. Supongamos, por ejemplo, que un consultor está describiendo una buena práctica en el ámbito de la planificación de la producción para incluirla en una base de datos. Se ha observado que la observación directa del estado de la planta de producción y el contacto directo con los operarios por parte de una directora de planificación que a menudo “se pasea” por la fábrica contribuye a una más eficaz planificación de la producción. Parece sencillo y fácil de describir. Pero, ¿podemos suponer que todo el mundo sabe qué es una directora de planificación? Si la consultora trabaja a nivel mundial, puede ocurrir que en algunos países la planificación no sea considerada una área independiente de producción, o incluso que en algunas culturas sea inconcebible que una mujer ocupe ese puesto. Se está suponiendo un conocimiento implícito que quizás no todos los posibles usuarios de la base de datos posean. Es evidente que es imposible incluir todo el conocimiento implícito en un repositorio, pues la tarea sería ingente tanto a nivel de medios físicos como a nivel del tiempo necesario. Además, la cantidad de información necesaria para transmitirlo no sería digerible en modo alguno. Se puede pensar en almacenar un mínimo nivel de conocimiento implícito que haga posible la comunicación. Sin embargo, ese nivel es diferente para cada posible usuario. Un nivel determinado puede ser insuficiente para unos mientras que para otros suponga una información (o “no información”, pues no aporta nada nuevo) redundante que sólo sirve para entorpecer el uso del sistema y, a la larga, para que éste no sea utilizado. Y muchas veces quien intenta plasmar el conocimiento no sabe quienes van a utilizarlo, de manera que no puede ni intentar adivinar ese nivel. Es interesante observar que el concepto de conocimiento implícito no se corresponde con el de conocimiento tácito. El conocimiento implícito puede ser en muchas ocasiones fácilmente explicitable. En este caso el problema no es la dificultad intrínseca de explicitar el conocimiento, sino las limitaciones de medios materiales, tiempo y capacidad de proceso de los seres humanos. Probablemente hace falta avanzar en nuestro conocimiento teórico sobre cómo funcionan los procesos relacionados con la transmisión de conocimiento y el desarrollo de nuevas tecnologías para dar soluciones satisfactorias a este tipo de problemas. Agustí Canals Know-org 29 22. Organizaciones basadas en el conocimiento El énfasis en el conocimiento debería traer también otra manera de concebir las organizaciones. (Tiempo estimado de lectura: 3 minutos) A veces tengo la sensación que la gestión del conocimiento lleva el camino de convertirse en una más de las modas que periódicamente aparecen en el mundo de la gestión empresarial y que prometen ser la panacea que solucione todos los problemas para, al cabo de un tiempo, desaparecer sin dejar rastro. O, peor aún, dejando un rastro de desolación. Así ha sucedido con la reingeniería de procesos, la calidad total, el “downsizing”, el “empowerment”, etc. Sería injusto decir que todos esos conceptos no han servido para nada (creo que todos han aportado alguna cosa), pero no han conseguido permanecer como algo sólido y duradero en la cultura empresarial. Sin embargo, estoy convencido de que la idea del conocimiento como factor clave en las organizaciones es algo mucho más potente que una simple moda. Quizás pasen algunos de los métodos o de las tecnologías que nos proponen por doquier para gestionar el conocimiento. Hasta puede que pase incluso el término “gestión del conocimiento”. Pero creo firmemente que la conciencia del papel que juegan el conocimiento y la información en las organizaciones ha llegado para quedarse. A mi modo de ver, una de las diferencias fundamentales de esta idea con respecto a pasados “leif-motiv” del management es que puede ser la base para una concepción diferente de la organización. En esta línea va el razonamiento que hace Chris Bartlett, profesor de la Harvard Business School, en su artículo “The KnowledgeBased Organization: A Managerial Revolution”, publicado en el interesante libro The Knowledge Advantage (http://www.amazon.com/exec/obidos/ASIN/1841120677/infonomia). La tesis de Bartlett es que las bases organizativas que funcionaban bien en la economía industrial ya no sirven para la economía del conocimiento. Tradicionalmente se centraba la atención en tres elementos: la estrategia, la estructura y los sistemas. Esto dio lugar a una manera de concebir la organización que tuvo como máximo desarrollo la gran corporación estructurada en divisiones y que tenía como estrategia básica la diversificación. La estructura jerárquica se basaba en tres niveles de gestión: la alta dirección, encargada de definir la estrategia, los mandos intermedios, que tenían como función gestionar los sistemas y que trasladaban la estrategia hacia la base y los resultados hacia la cúpula, y los mandos de primera línea, encargados de las operaciones. Según Bartlett, esa estrategia funcionó en su tiempo porque se adaptaba bien al entorno, pero ya no sirve en la situación actual. En un escenario que ya no se caracteriza por el crecimiento continuo sino por discontinuidades estructurales (la explosión de la información y el conocimiento) la tarea principal ya no es asignar los recursos, sino acumular conocimiento. El recurso escaso para muchas compañías ya no es el capital, sino el conocimiento que poseen. En base a los estudios realizados de casos de empresas de éxito como ABB o 3M, Bartlett concluye que las claves de la nueva organización son tres. Primero, un concepto de la organización basado en las personas y las relaciones entre ellas más que en los procedimientos y las funciones. Segundo, un cambio en el rol de los directivos. Más que estrategas, controladores e implementadores se necesitan líderes capaces de “construir” y desarrollar la organización y emprendedores capaces de innovar. Tercero, una nueva filosofía de gestión basada en los objetivos, los procesos y las personas. Tal como dice Bartlett, las organizaciones no son tan sólo estructura. La estructura sólo es el esqueleto. Las organizaciones también tienen fisiología, en la cual el flujo de información y conocimiento juega el papel del riego sanguíneo, y una psicología, que se conforma con los valores de las personas y con su manera de pensar y actuar. Agustí Canals Know-org 30 23. ¿Gestión del conocimiento sin tecnología? Últimamente, parece que el papel de la tecnología en la gestión del conocimiento está en horas bajas. (Tiempo estimado de lectura: 2,5 minutos) Junto con la toma de conciencia sobre la importancia del conocimiento en la actividad de las organizaciones, el desarrollo tecnológico fue un elemento clave en el surgimiento de la preocupación por la gestión del conocimiento. La sensación hace unos pocos años era que las nuevas tecnologías permitirían construir sistemas capaces de capturar, almacenar y difundir el conocimiento de manera casi automática. Así, las empresas podrían controlar su acerbo de conocimiento y gestionarlo de manera óptima. Aunque el desarrollo de la tecnología web y de las bases de datos ha permitido avances significativos en ese sentido, la naturaleza del problema se ha demostrado más compleja de lo previsto y las herramientas tecnológicas actuales han resultado insuficientes. Se ha visto la imperiosa necesidad de contar con factores alejados de lo tecnológico como la interacción social, la cultura organizativa o el conocimiento tácito de los individuos. Eso ha llevado al desarrollo de ideas y conceptos muy interesantes, algunos de los cuales ya hemos comentado en Know-Org: comunidades de práctica, el contexto social de la información, el capital social, entre otros. Sin embargo, esta situación ha hecho que en ciertos sectores se extienda una postura tan escéptica con las tecnologías que se ha pasado al otro extremo: una gestión del conocimiento sin tecnología. Así, a veces, la gestión del conocimiento ha pasado a ser solamente un tema de diseño organizativo o de gestión de recursos humanos, dejando las herramientas tecnológicas completamente a un lado. Indudablemente, eso hacía más fácil para algunos subirse al “furgón de cola” e intentar rentabilizar viejos esquemas rebautizándolos con el término de moda: gestión del conocimiento. Lo que a primera vista parece sorprendente es que incluso compañías indudablemente tecnológicas como IBM dejen la tecnología en un segundo plano. Por ejemplo, observando los proyectos de investigación actuales del Institute for Knowledge Management (http://www-4.ibm.com/software/data/knowledge/ikm/research.html) vemos que frente a varias líneas de investigación con nombres como “comunidades de práctica”, “estrategia del conocimiento”, “intermediación y roles del conocimiento”, “capital social”, “alianzas estratégicas y gestión del conocimiento” e “historias para comunicar conocimiento tácito” sólo hay una línea denominada “tecnologías del conocimiento”. Pero si profundizamos en una de esas líneas, por ejemplo la de la utilización de historias para comunicar conocimiento tácito (concepto que ya comentamos brevemente en el artículo 19 de Know-Org ) vemos que el objetivo es “facilitar la captura, creación, organización, indización, búsqueda y utilización de historias” (http://www.research.ibm.com/knowsoc/project_index.html). Evidentemente, IBM considera la tecnología una herramienta potentísima para conseguir ese objetivo. A mi modo de ver, ésa es la postura más inteligente. Las carencias de las tecnologías nos han ayudado a detectar los problemas más importantes en la gestión del conocimiento. El desarrollo de nuevas tecnologías puede ayudarnos a solucionarlos. La tecnología es tan sólo una herramienta, pero, como tal, puede sernos muy útil siempre que recordemos que el factor principal son las personas. Agustí Canals Know-org 31 24. Evolución El mecanismo responsable de la evolución de las especies puede ser un modelo para entender la creación de conocimiento. (Tiempo estimado de lectura: 3 minutos) La teoría de la evolución, formulada por primera vez por Charles Darwin, es una de las teorías científicas que más ha influenciado el pensamiento en los últimos siglos. De pronto, el hombre, el rey de la creación, pasó a ser uno más entre los animales descendientes de los primeros seres vivos. El mecanismo evolutivo es muy sencillo, y sin embargo fascinante. Las especies van variando sus características a lo largo de los siglos de manera que su adaptación al medio mejora. Sin embargo, no es que las condiciones del medio sean la causa directa de la variación; no se trata de variaciones dirigidas a una mejor adaptación. Lo que pasa en realidad es que se producen multitud de variaciones, ya sea por recombinación genética a través de la reproducción o bien por simple mutación espontánea. La mayoría de ellas no aportan nada positivo o incluso son perjudiciales para la especie. Sólo una pequeña parte de las variaciones sirven para mejorar la adaptación al medio. Lo que ocurre es que, debido a su mejor adaptación, los individuos que presentan esas mejoras son los que tienden a sobrevivir. De esta manera, los genes que sobreviven son los que incorporan las modificaciones positivas. Es un mecanismo bastante eficaz, pero poco eficiente. Son necesarios billones de cambios que no llevan a ninguna parte y es necesario que pasen miles de millones de años para conseguir la evolución en la dirección adecuada. De hecho, se malgastan muchos recursos. Sin embargo, por otro lado, el proceso no requiere una inteligencia que lo gobierne. La evolución se va produciendo espontáneamente. La potencia del mecanismo ha hecho que la idea se extienda fuera del ámbito estricto de la biología. Por ejemplo, para encontrar solución a problemas complejos mediante técnicas de computación puede intentarse mediante el método tradicional de tratar de encontrar la solución óptima. Pero también puede utilizarse la idea de la evolución. Así, es posible crear un conjunto de soluciones iniciales, ver cómo se comportan mediante una simulación y dejar que se reproduzcan y recombinen las mejores. De esta manera, al cabo de unas generaciones tenemos soluciones satisfactorias. Con esta idea de base se desarrolla la llamada “computación evolutiva” (http://www.isgec.org) o la “programación genética” (http://www.genetic-programming.org). Estas técnicas se utilizan en algunos casos en la minería de datos (“data mining”) para descubrir “conocimiento oculto” en las bases de datos. Pero la potencia de la idea de evolución es tal que incluso hay quien la propone como el mecanismo fundamental de la creación de conocimiento. En efecto, existe una “epistemología evolutiva”, basada en algunos trabajos de los últimos años del filósofo Karl Popper, y que se trata con profundidad en el libro Evolutionary Epistemology, Rationality, and the Sociology of Knowledge (http://www.amazon.com/exec/obidos/ASIN/ 0812690397infonomia). Es un tema muy teórico, bastante denso y complejo, pero la idea fundamental es sencilla: el mecanismo por el cual nuestro conocimiento crece es similar al de la evolución de las especies. Es lo que algunos de los autores del libro llaman “variación ciega y retención selectiva”. En nuestra mente se generan, de manera inconsciente y también consciente, múltiples ideas. Descartamos directamente la mayoría de esas ideas porque no tienen sentido. Unas pocas son posibles candidatas a ser la solución de un problema o la explicación de un hecho determinado. Después de contrastarlo, nos quedamos sólo con las que realmente funcionan. Así vamos construyendo nuestro conocimiento. No es que nos propongamos elaborar las ideas que necesitamos, sino que generamos “ciegamente” gran cantidad de ellas y lo que hacemos es seleccionar y retener las que demuestran alguna utilidad. Sin duda, es una visión muy interesante y sugestiva de la creación de conocimiento. Agustí Canals Know-org 32 25. Management evolutivo La idea evolutiva de la creación de conocimiento puede aportar puntos de vista interesantes para el management. (Tiempo estimado de lectura: 2 minutos) En el mensaje anterior hablamos de la creación de conocimiento como un proceso evolutivo basado en la “variación ciega” y la “retención selectiva”. Esta idea, más bien teórica, puede ayudarnos a sacar interesantes conclusiones prácticas. A mi me ha sugerido una serie de ideas sobre las organizaciones y su gestión. 1.- Nuestro conocimiento no es, al igual que las soluciones de la evolución biológica, una solución óptima. En términos matemáticos la evolución lleva a uno de los varios óptimos locales que pueden existir. Existen múltiples soluciones que pueden ajustarse más o menos adecuadamente a un problema. La que escoge cada organización depende de cómo se ha iniciado el camino evolutivo. Así, no hay una única manera de gestionar una organización. Y nadie tiene la verdad absoluta. 2.- La creación de conocimiento es, como la evolución, un proceso gradual. El éxito de la evolución está en mantener las antiguas soluciones que continúan funcionando y cambiar las que ya no lo hacen. Tan poco sentido tiene en una organización rechazar todo cambio, como hacerlo todo de manera diferente a los demás “porque sí”. Si las soluciones adoptadas por nuestra organización en el pasado o actualmente por nuestros competidores funcionan, no hay razón para cambiarlas: el mecanismo de la evolución las mantiene. 3.- En un entorno cada vez más cambiante como el actual, la adaptación debe ser mucho más rápida. Por una parte, la selección de las mejores alternativas debe realizarse en menos tiempo. De ahí que sea necesario que el poder de decisión se sitúe lo más cerca posible de los problemas reales. Por otra parte, debe haber un mayor grado de “variación ciega”. Para ello, es básico que fomentemos la generación de gran número de ideas por parte de gran número de personas. Además, es importante que esas personas aporten una gran diversidad de criterios y opiniones y que haya discusión. Ya no sirven las organizaciones jerárquicas donde sólo piensan unos pocos. Además, hay que conseguir concebir el error como una oportunidad de aprender y premiar el riesgo razonable en lugar de penalizar los fallos. Por último, es importante que los integrantes de la organización “oxigenen” periódicamente su mente para poder aportar variaciones originales derivadas de ver los problemas desde un punto de vista distinto. Para esto último, no se me ocurre cosa mejor que unas buenas vacaciones. Os deseo a todos un feliz verano y unas fantásticas vacaciones si tenéis la suerte de hacerlas pronto. Por mi parte, espero volver en septiembre produciendo más “variación ciega”. La “retención selectiva” será, como siempre, cosa vuestra. Agustí Canals Know-org 33 26. Ordenadores cuánticos Aunque pueda parecer un tema sumamente técnico, la posibilidad de construir ordenadores cuánticos puede tener interesantes implicaciones, tanto prácticas como conceptuales. (Tiempo estimado de lectura: 3 minutos) Además de su función principal, que es descansar, las vacaciones dan la posibilidad de profundizar en temas que la presión del día a día nos obliga a ir dejando de lado. Este verano he podido dedicar unos días a leer sobre la cada vez más cercana posibilidad de construir ordenadores basados en los principios de la mecánica cuántica y sobre la teoría cuántica de la información. Despertó mi interés sobre el tema un estimulante libro de divulgación del físico David Deutsch titulado The Fabric of Reality (http://www.amazon.com/exec/obidos/ASIN/014027541X/infonomia). Entre otros interesantes aspectos de la ciencia moderna, como la posibilidad de la existencia de universos paralelos, la realidad virtual o las más sorprendentes implicaciones de la idea de la evolución biológica en nuestra concepción del mundo, Deutsch nos presenta los últimos avances en su especialidad profesional, la computación cuántica. Puede encontrarse abundante información sobre el tema en la página del Centre for Quantum Computation (http://www.qubit.org). Para quien quiera ir un poco más allá -y tenga un mínimo conocimiento de física cuántica- me permito recomendar el excelente texto Quantum Computation and Quantum Information, de Michael A. Nielsen y Isaac L. Chuang (http://www.amazon.com/exec/obidos/ASIN/0521635039/infonomia). De hecho, podemos considerar que todos los ordenadores actuales son, en realidad, cuánticos. El funcionamiento de los chips que tienen en su corazón se basa en las propiedades cuánticas de la materia. Sin embargo, su diseño sigue los conceptos “clásicos” formulados por Alan Turing y John von Neumann. Cuando utilizamos el término “ordenador cuántico” nos referimos a aquél que utiliza, como unidad de computación, estados cuánticos (el más común de ellos llamado “quantum bit” o “qubit”) en lugar de los “clásicos” bits y circuitos lógicos capaces de operar con esos estados. Es importante señalar que no se trata de una simple mejora tecnológica como un nuevo modelo de procesador o un aumento en la velocidad de ejecución de las instrucciones: la computación cuántica constituye un salto cualitativo en el mundo de la informática. Aunque es un campo en el que se está avanzando muy rápidamente, aún no se ha conseguido construir ordenadores cuánticos que puedan ser utilizados en lugar de los actuales. Sin embargo, sí se conocen algunas de las posibilidades que pueden llegar a tener. La clave de los ordenadores cuánticos es que la utilización de estados cuánticos permitiría, además de simular cualquier ordenador clásico, la utilización de nuevos algoritmos de gran potencia. Uno de estos algoritmos da la posibilidad de resolver, en un tiempo aceptable, un problema matemático que está fuera del alcance de los ordenadores clásicos: la factorización (encontrar los números primos que multiplicados nos dan un número determinado). Las implicaciones de resolver este problema son importantísimas, pues en esta imposibilidad de la computación clásica se basa uno de los sistemas de cifrado más utilizados en Internet: el RSA (http://www.rsa.com). Un ordenador cuántico permitiría fácilmente vulnerar este sistema de protección. Afortunadamente, la utilización de ordenadores cuánticos permitiría también el uso de sistemas de protección prácticamente infalibles. Otro algoritmo muy interesante permitiría, además de resolver algunos complejos problemas matemáticos, aumentar de manera espectacular la potencia de búsqueda en bases de datos no estructuradas. Podemos imaginar fácilmente las aplicaciones que esa tecnología tendría en la búsqueda de información en Internet y en los sistemas de gestión del conocimiento. Pero el estudio de la computación cuántica ha generado también nuevos conceptos que afectan de manera importante a la idea que tenemos del fenómeno de la información, dando lugar, entre otros desarrollos, a la teoría cuántica de la información. Quizás otro día hablemos de eso. Agustí Canals Know-org 34 27. Gestión del conocimiento para el terror Los trágicos hechos de Nueva York y Washington constituyen un caso de estudio para la gestión del conocimiento. (Tiempo estimado de lectura: 2 minutos) En estos días posteriores al 11 de septiembre de 2001, llenos de sensaciones intensas y confusas, es casi imposible evitar que, al pensar en cualquier cosa, nuestra mente la relacione con los terribles hechos de los Estados Unidos y con las quizá aún más terribles consecuencias. He decidido que en este artículo no voy ni siquiera a intentarlo. Es imposible, al menos para mí, encontrar alguna explicación racional a los atentados. Sin embargo, es interesante ver cómo elementos muy propios de la gestión del conocimiento han jugado un papel importante en la tragedia. Por una parte, los medios de comunicación parecen coincidir en que se han cometido errores importantes en los servicios de inteligencia y de seguridad de los países occidentales. Veamos algunos de ellos. Muchos expertos señalan que una de las causas de que no se hayan podido prever los atentados es la progresiva sustitución en los servicios de inteligencia de personas por elementos tecnológicos. Como en muchos otros casos, eso parece haber llevado a pérdidas irreparables en conocimiento tácito que se han demostrado determinantes. Además, como ocurre en muchas organizaciones con los distintos departamentos, parece que es muy difícil conseguir que las diferentes agencias de seguridad e inteligencia de los mismos Estados Unidos compartan la información de la que disponen. Probablemente tienen muy claro—es su negocio—que el conocimiento es poder, pero el precio por no compartirlo se me antoja demasiado alto. Esta situación aún se agrava entre los servicios secretos de los distintos estados, aunque sean aliados. Por otra parte, los terroristas han sabido, tristemente, usar los medios más eficaces para la transmisión de información y la adquisición de conocimiento. Parece claro que han utilizado Internet para comunicarse y que aprendieron a pilotar gracias al uso de simuladores, que permiten la transmisión de conocimiento explícito, pero también tácito, de manera eficiente, sin peligro y a bajo precio. Sin embargo, la más eficaz -y terrible- gestión del conocimiento se manifiesta en otro aspecto. Si consideramos, como vimos en el número 2 de Know-Org , que conocimiento es todo aquello que nos permite interpretar nuestro entorno y actuar en consecuencia, las creencias religiosas forman parte también de nuestro conocimiento. Y parece que unos pocos, con oscuros intereses, están gestionando demasiado bien ese conocimiento. Agustí Canals Know-org 35 28. Prácticas efectivas de gestión del conocimiento Un estudio patrocinado por McKinsey & Co. realizado en 40 grandes empresas industriales de Europa, Estados Unidos y Japón permite identificar las prácticas de gestión del conocimiento más efectivas. (Tiempo estimado de lectura: 3 minutos) Actualmente el gestor del conocimiento tiene a su disposición una gran cantidad de artículos, libros e informes donde se proponen un sin fin de técnicas y acciones posibles en forma de “best practices” o “case studies” y múltiples productos de software especializado para gestionar aspectos concretos del conocimiento organizacional. Sin embargo, no puede hacerse todo al mismo tiempo: hay que escoger, atendiendo siempre a las características propias de la empresa, las actuaciones que puedan dar un mejor resultado. Y hay pocos datos empíricos para fundamentar esa decisión. El libro Knowledge Unplugged (http://www.amazon.com/exec/obidos/ASIN/0333963768/infonomia) puede ser una importante ayuda en ese sentido. En él se presentan los resultados de un estudio conjunto realizado por investigadores de la Darmstad University of Technology y consultores de la prestigiosa firma McKinsey & Co. que lleva por título “The McKinsey & Company Global Survey on Knowledge Management”. El estudio pretende, como dicen sus autores, contribuir a “clarificar el tema y transferir herramientas analíticas probadas al campo de la gestión del conocimiento”. El objetivo es identificar cuáles son las prácticas de gestión del conocimiento más efectivas basándose en el análisis de los resultados de múltiples encuestas y entrevistas realizadas en 40 grandes empresas industriales de Europa, los Estados Unidos y Japón. La dificultad principal para conocer la efectividad de una práctica concreta es que el conocimiento no es un factor que influya de una manera clara en los resultados financieros de la empresa. Su influencia es muy grande, pero se realiza a menudo de manera indirecta: un producto con buen diseño se vende más, un servicio técnico eficaz fideliza a los clientes, un vendedor que conoce las necesidades del cliente es más efectivo, etc. Es difícil, entonces, determinar cuál es el efecto de una práctica de gestión del conocimiento en términos económicos. El informe de McKinsey propone el sistema siguiente. Después de identificar 139 técnicas y métodos de gestión del conocimiento, se ve cuáles de ellos se aplican en cada una de las organizaciones estudiadas. Por otra parte, se hace una división de las empresas entre las “excelentes”, las “buenas” y las “mediocres” atendiendo a criterios como la rentabilidad, el tiempo medio de desarrollo de productos, el ritmo de innovación, el crecimiento de las ventas, el crecimiento de los beneficios, etc. Entonces, identificando cuáles son las prácticas que utilizan muchas de las empresas “excelentes” pero que son muy poco utilizadas por las “mediocres”, se obtienen los mejores candidatos a buenas prácticas que traducen el uso del conocimiento en valor para la organización. Es imposible resumir todo el estudio en este artículo, pero citaré de manera muy breve algunas de las prácticas concretas que quedan en mejor lugar, cada una relacionada con un aspecto del conocimiento: 1) Fomentar la colaboración interdisciplinaria entre los departamentos de desarrollo de productos y aprovisionamiento para evitar la subjetividad y compartir el conocimiento. 2) Involucrar al personal de marketing y ventas en los primeros estadios del desarrollo de productos para transferir conocimiento útil. 3) Habilitar espacios de trabajo especiales para los proveedores en la sección de desarrollo de producto para que capten las necesidades de una manera tácita. 4) Garantizar un fácil acceso a los datos de aprovisionamiento para potenciar su utiización a múltiples niveles. 5) Formación continua en relación a estándares y reglas de diseño para evitar la obsolescencia. 6) Uso sistemático de técnicas de creatividad en la mejora de procesos para fomentar la aparición de soluciones imaginativas. Probablemente esas prácticas no se puedan aplicar a nuestra propia organización, pero tanto el método utilizado como los resultados obtenidos son muy interesantes. Agustí Canals Know-org 36 29. Complejidad, organizaciones y conocimiento Las ciencias de la complejidad aplicadas a sistemas sociales como las organizaciones nos muestran nuevas y sugerentes facetas del conocimiento como una estructura emergente. (Tiempo estimado de lectura: 3 minutos) En el último número de Ke! (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=603), Alfons Cornella comenta la tesis de Bonabeu y Meyer según la cual las empresas pueden mejorar sus procesos aprendiendo del funcionamiento de otros sistemas complejos como los hormigueros. Siguiendo un reducido número de reglas sencillas a nivel individual, los integrantes de un sistema pueden hacer que se genere un orden complejo a nivel general. Este fenómeno de “emergencia” de estructuras ordenadas a partir de la suma de comportamientos individuales aparentemente caóticos se estudia en lo que se han dado en llamar Ciencias de la Complejidad. Los primeros sistemas complejos estudiados pertenecen al reino de las ciencias naturales. No en vano el primero en teorizar sobre estos sistemas fue el premio Nobel de química Ilya Prigogine y una de las obras más citadas e interesantes en este campo es el libro At Home in the Universe (http://www.amazon.com/exec/obidos/ASIN/0195095995/infonomia), del profesor del prestigioso Santa Fe Institute (http://www.santafe.edu/) Stuart Kauffman, que versa sobre cómo fenómenos de orden emergente pueden haber intervenido en el surgimiento de la vida en la Tierra. Sin embargo, cada vez más se está trabajando en la línea de aplicar la teoría de la complejidad a sistemas sociales y, entre ellos, a las organizaciones. El libro Harnessing Complexity (http://www.amazon.com/exec/obidos/ASIN/ 0684867176/infonomia), de Axelrod y Cohen, analiza de una manera muy asequible las interesantes implicaciones derivadas de considerar la organización como un sistema complejo. Para los autores, este punto de vista será cada vez más indispensable a medida que el avance tecnológico permita que vayan surgiendo más y más organizaciones en red. El desarrollo del sistema operativo Linux o la misma Internet son ejemplos de la emergencia de un cierto orden a partir del comportamiento libre de los individuos sin ninguna autoridad central. Sin embargo, la equiparación de los sistemas naturales a los sistemas sociales humanos no es inmediata. Como dice Alfons, las hormigas no tienen libre albedrío. Determinar si los humanos lo tenemos o no es un problema filosófico en el que no voy a entrar. Lo que sí es cierto es que, al contrario que las hormigas, los humanos tenemos la capacidad de reconocer, razonar y reaccionar ante las estructuras emergentes. Y nuestro comportamiento derivado de esa capacidad tiene como consecuencia la creación de estructuras emergentes de segundo orden, como los gobiernos, las culturas o las empresas. De ahí que sea mucho más difícil encontrar las reglas sencillas individuales que provocan la emergencia de un determinado orden en una organización que en un hormiguero. Esta idea puede aplicarse también al conocimiento organizacional. Recientemente he tenido la oportunidad de asistir a un workshop sobre Complejidad y Organización celebrado en Bruselas, en el cual Peter Allen, antiguo discípulo de Ilya Prigogine ahora en el Complex Systems Management Centre de la Cranfield School of Management (http://www.som.cranfield.ac.uk/som/complex/), presentaba una idea interesantísima para todo aquel que pretenda gestionar el conocimiento. Para Allen, el conocimiento es una de esas estructuras de segundo orden. Por tanto, el hecho de saber lo que sabemos ya modifica nuestro conocimiento. Es decir, difundiendo el conocimiento o actuando en base a él, la situación y el mismo conocimiento cambian. Así—dice Allen—si queremos que nuestra organización sobreviva no sólo debemos mejorar la manera en que hace lo que hace, sino que también debemos mejorar la manera en que aprende cómo mejorar lo que hace. Agustí Canals Know-org 37 30. El premio Nobel de Infonomía Los tres galardonados con el último premio Nobel de economía tienen en común que sus trabajos tratan sobre la información en los procesos económicos. (Tiempo estimado de lectura: 3 minutos) No es que la Real Academia Sueca de las Ciencias haya decidido instaurar un nuevo premio Nobel dedicado a los infonomistas. De momento, al menos. Sin embargo, atendiendo a los galardonados el pasado mes de octubre con el premio Nobel de economía bien pudiera parecerlo. El pasado día 10 de octubre se anunciaba la concesión del premio a los economistas norteamericanos George A. Akerlof, A. Michael Spence y Joseph Stiglitz “por sus análisis sobre mercados con información asimétrica”. Es decir, por estudiar la función de la información en los mecanismos que rigen la economía. Es evidente, pues, que los galardonados pueden considerarse infonomistas de pleno derecho (http://www.infonomia.com/infonomia/ infonomia.asp) con merecimientos para estar en la “Hall of fame” de la Infonomía (http://www.infonomia.com/ grandes). Esta reciente circunstancia me ha llevado a reflexionar sobre la gran importancia de la información en todos los procesos económicos. Los estudios de los premiados nos lo muestran claramente. George Akerlof, por ejemplo, demostró que cuando en un mercado los vendedores tienen más información sobre el producto que los compradores—como en el caso de los coches usados—se produce un fenómeno de “selección adversa” y sólo se intercambian los productos de baja calidad. La razón es que los compradores no se arriesgan a pagar el precio de un producto de calidad cuando no pueden estar seguros de si el que se les ofrece lo es. Michael Spence describió el mecanismo de “señalización” según el cual las titulaciones académicas permiten a los empleadores conocer a priori, al menos en parte, las competencias de sus prospectivos empleados. Así, cursar unos estudios no sólo interesa por el conocimiento que se adquiere, sino también para distinguirse de quienes no tienen las capacidades o aptitudes para conseguir la titulación. Joseph Stiglitz contribuyó a la explicación de fenómenos como la concesión de créditos o el paro donde se producen asimetrías de información. Lo curioso del caso es que estos trabajos son relativamente recientes en la economía. Se desarrollaron en los años 70 para subsanar el escaso tratamiento de los efectos de los problemas de información en la economía neoclásica tradicional. En efecto, a pesar de su evidente importancia, los economistas han desarrollado poco el papel de la información en la ciencia económica. En los últimos tiempos y debido en parte a la importancia del conocimiento y la información en la nueva economía se ha despertado un renovado interés de los economistas en estos fenómenos. Una muy interesante muestra de ello es el libro Information Rules (http://www.amazon.com/exec/obidos/ASIN/087584863X/ infonomia), uno de cuyos autores es el conocido economista Hal Varian. Sin embargo, creo que será necesaria en el futuro una aún mejor comprensión de la naturaleza real de la información. Por ejemplo, cuando en economía se habla de asimetrías de información, ¿se está hablando realmente de información o se está hablando de conocimiento? ¿O quizás de simples datos? ¿Qué implicaciones tiene esa distinción? Cuestiones como éstas sugieren que es necesaria una formulación clara de todos esos conceptos que sea aplicable tanto a la gestión del conocimiento como a la ciencia económica y a otras muchas disciplinas en las que la información y el conocimiento juegan un papel importante. Quien lo logre tendrá asegurado el futuro premio Nobel de Infonomía. Agustí Canals Know-org 38 31. El teorema del elefante En gestión del conocimiento no podemos pretender abarcar todo el conocimiento de la organización desde un inicio. Debemos ir paso a paso y aplicar las técnicas adecuadas para cada tipo de conocimiento. (Tiempo estimado de lectura: 2 minutos) Un amigo con quien he tenido ocasión de trabajar, cuando se enfrenta a una tarea compleja o que requiere gran cantidad de trabajo aplica lo que podría llamarse “el teorema del elefante”. Mi amigo pregunta: “¿qué es lo primero que hay que hacer para poder comerse un elefante entero?”. Cuando su interlocutor pone cara de no saber qué relación tienen los elefantes con el problema en cuestión, él responde: “¡Pues cortarlo en bistecs!”. La idea es que para completar una tarea compleja que nos parece ingente hay que identificar las múltiples acciones más sencillas que habrá que realizar para cumplirla y empezar a tratarlas una por una. No podemos comernos un elefante de golpe, pero lo acabaremos haciendo si cada día nos comemos un bistec. En los proyectos de gestión del conocimiento pasa algo parecido. En una organización hay una gran cantidad de conocimiento que se encuentra repartido entre una gran cantidad de personas, incorporado a múltiples procesos o representado en una gran diversidad de soportes. Las técnicas de gestión del conocimiento son múltiples y variadas. Cuál de ellas es la más adecuada depende en cada ocasión del tipo de conocimiento que estemos tratando y de quién lo posea o cómo esté representado. Así, no podemos plantearnos gestionar todo el conocimiento de una organización de la noche a la mañana. Lo más sensato es empezar por una pequeña parte de ese conocimiento y aplicar la técnica más adecuada. Progresivamente podremos ir aumentando nuestro ámbito de actuación e incorporando nuevas técnicas. Esta actitud es especialmente aconsejable al menos por dos motivos. Primero, porque los recursos disponibles para el proyecto, tanto en dinero como en personas o tiempo, son limitados. Si los dispersamos en múltiples subproyectos diferentes, cada uno con pocos recursos, es probable que ninguno de ellos funcione bien. Segundo, porque concentrarse en un ámbito restringido permite una planificación más detallada, una mejor ejecución y un mayor control de las acciones realizadas que permiten asegurar mejor los resultados. Y ese es un factor muy importante. Es básico demostrar que las primeras acciones en un proyecto de gestión del conocimiento tienen un efecto positivo. Ello sirve para ratificar el apoyo de la dirección y, quizás aún más importante, para demostrar a todos los miembros de la organización que aquello realmente les sirve para realizar mejor su trabajo. Sólo así conseguiremos que se sientan partícipes del proyecto y accedan a compartir su conocimiento. Sería difícil, por ejemplo, organizar al mismo tiempo una comunidad de práctica para incentivar la creación de conocimiento, una base de datos de artículos relevantes, una feria de conocimiento para fomentar la compartición y una base de datos en la que figuren los distintos expertos de la organización. Aunque a veces sí es posible matar dos pájaros de un tiro. Algunos productos de gestión del conocimiento de nueva generación permiten combinar la gestión de más de un tipo de conocimiento. Por ejemplo, el producto NewKnow (http://www.newknow.com) utiliza por una parte una base de datos de documentos (conocimiento representado) y por otra la información que puede obtenerse analizando el uso que los distintos miembros de la organización hacen de los documentos (un conocimiento del que probablemente nadie sea consciente) y su opinión sobre ellos (derivada del conocimiento tácito de la persona). Quizá los domingos podamos comernos dos bistecs. Agustí Canals Know-org 39 32. Aprender a nadar en seco En el campo de la gestión del conocimiento coexisten dos versiones diferentes del concepto de conocimiento tácito, aparentemente contrapuestas. (Tiempo estimado de lectura: 2 minutos) Cuentan que el matemático y físico teórico polaco Theodor Kaluza (http://www-groups.dcs.st-andrews.ac.uk/ ~history/Mathematicians/Kaluza.html) se propuso un día demostrar el valor del conocimiento teórico en la vida diaria. Decidió que a sus treinta años ya era hora de aprender a nadar, pero lo haría a su manera. Después de leer concienzudamente un libro sobre natación, echó a nadar correctamente al primer intento. Pero, ¿cómo? ¿No poníamos siempre como ejemplo de conocimiento tácito, que no es posible explicitar, las acciones de nadar o montar en bicicleta? Independientemente de la veracidad o no de la historia, recordarla me hizo reflexionar un poco sobre el concepto de conocimiento tácito que se utiliza tan profusamente en gestión del conocimiento. Curiosamente, conviven en cuanto a ese concepto dos definiciones aparentemente contrapuestas. Una, la original, propuesta por el filósofo Michael Polanyi, según la cual el conocimiento tácito es aquél que no se puede explicitar. Parafraseando al químico y filósofo: “podemos saber más de lo que podemos explicar”. La segunda idea reza que el conocimiento tácito es aquél que aún no ha sido explicitado. Esta concepción, popularizada entre otros por Nonaka y Takeuchi (que, sin embargo, dicen haber tomado de Polanyi el concepto de conocimiento tácito), hace posible pensar en procesos de conversión entre conocimiento tácito y explícito. La primera definición es una excelente excusa para aquellos que desprecian la posibilidad de representar de algún modo el conocimiento de las personas o las organizaciones utilizando las tecnologías, y la segunda para aquellos que propugnan que la gestión del conocimiento consiste en explicitar todo el conocimiento en forma de bases de datos o sistemas expertos. A mi modo de ver, las dos actitudes extremas son perjudiciales. El conocimiento es aquello que refleja nuestra visión del mundo y nos permite, por tanto, actuar. Cuanto mejor sea el conocimiento, más efectiva será nuestra acción. Por tanto, el objetivo ideal de la gestión del conocimiento debe ser que cada miembro de la organización posea, en el momento en que lo necesite, el conocimiento adecuado para llevar a cabo su función. Así, cuando sea posible que el conocimiento se explicite de alguna manera, debemos fomentarlo, ya que será más fácil que se difunda. Eso sí, con el peligro de que se difunda demasiado y, por ejemplo, pase a la competencia. Por otra parte, cuando el conocimiento es difícil de explicitar debemos recurrir a otros mecanismos de transmisión, que son más costosos en tiempo y recursos, pero que probablemente son más efectivos y seguros. Pero, volviendo al concepto de conocimiento tácito, aún no hemos decidido con cuál de las dos definiciones debemos quedarnos. A mi modo de ver, las dos visiones son, en cierto modo, compatibles. En un mundo ideal, donde los recursos y las capacidades fueran ilimitados, probablemente sería posible explicitar todo el conocimiento y no habría conocimiento tácito en el sentido de Polanyi. Pero en el mundo real, con recursos escasos y capacidades limitadas, la cosa ya no está tan clara. Explicar esta idea, sin embargo, requerirá otro Know-org y un poco más de teoría. Pero, como diría nuestro amigo Kaluza, no hay nada tan práctico como una buena teoría. Agustí Canals Know-org 40 33. Límites en la articulación explícita del conocimiento Debido a que en el mundo real los recursos son escasos y nuestras capacidades limitadas, no siempre es posible articular el conocimiento tácito de manera explícita para poder transferirlo. (Tiempo estimado de lectura: 2 minutos) En el artículo anterior de Know-org decíamos que en un mundo ideal de recursos ilimitados y capacidades infinitas probablemente sería posible explicitar cualquier tipo de conocimiento. Sin embargo, en el mundo real nos encontramos con una serie de limitaciones que hacen que ello sea imposible; o que sea más efectivo transferir el conocimiento de una manera que no requiera que éste se explicite en su totalidad. En 1982 (mucho antes de la aparición de la moda de la gestión del conocimiento), los economistas Richard Nelson y Sidney Winter proponen en su libro An Evolutionary Theory of Economic Change (http://www.amazon.com/exec/obidos/ASIN/0674272285/infonomia) una interesante alternativa a la teoría económica ortodoxa basada en el comportamiento totalmente racional de los individuos y dirigido a la maximización de la utilidad. En ella se da una gran importancia a la forma en que se puede adquirir y transferir el conocimiento tácito. En uno de los capítulos del libro, Nelson y Winter identifican algunas de las limitaciones que pueden aparecer a la hora de explicitar el conocimiento. Primero, los códigos simbólicos (por ejemplo, el lenguaje) que utilizamos para representar el conocimiento— y que deben ser compartidos si queremos que esa representación pueda ser utilizada para transferir el conocimiento—tienen ciertas limitaciones. Para poder explicitar algunos tipos de conocimiento nos faltan palabras, muchas veces no tenemos a nuestra disposición los conceptos necesarios. Es una sensación parecida a la que tenemos cuando intentamos explicar algo en un idioma que no dominamos y en el cual nos falta vocabulario. Segundo, hay un límite físico en la capacidad de transmisión de información a través de la comunicación simbólica, en la “anchura de banda”. A veces, para transferir un cierto conocimiento, es necesario transmitir mucha más información por unidad de tiempo. Entonces hay que recurrir a la transferencia de conocimiento tácito a través del contacto directo, en el cual hay una parte importante de la comunicación que no es explícita y que se beneficia, por ejemplo, de la comunicación no verbal o de un contexto compartido. Tercero, las limitadas capacidades del cerebro humano hacen que sea imposible articular el “conocimiento completo” sobre algo de una manera coherente, especialmente cuando hay que dar cuenta simultáneamente del todo y de las partes. Ello es debido probablemente—según Nelson y Winter—a varios factores relacionados entre sí como el carácter lineal de la comunicación basada en el lenguaje, el carácter “serial” del “procesador central” del cerebro humano y la relativamente limitada capacidad de la memoria reciente humana. Y por último, pero no menos importante, especialmente cuando tratamos del conocimiento en las organizaciones, hay que tener en cuenta la relación coste-beneficio de articular el conocimiento en forma explícita. La cuestión relevante en muchas ocasiones no es si un determinado conocimiento es en principio explicitable, sino si los costes derivados de esa explicitación serán compensados por los beneficios obtenidos. Si no, el conocimiento permanecerá, en la práctica, como conocimiento tácito. Y habrá que buscar otros sistemas más eficientes si queremos transferirlo. Muchas gracias a todos por vuestra fidelidad y apoyo durante todo el año. Feliz Navidad y hasta el 2002 Agustí Canals Know-org 41 34. Compartir conocimiento, ¿hasta dónde? La idea de compartir el conocimiento en las organizaciones contrasta con el afán de protegerlo de cara al exterior, lo que provoca dilemas difíciles de resolver. (Tiempo estimado de lectura: 2 minutos) En muchos libros y artículos sobre gestión del conocimiento se hace gran hincapié en fomentar la compartición de conocimiento. Se acepta como algo muy deseable y que hay que fomentar a toda costa. Pero, ¿hasta dónde hay que compartir el conocimiento? ¿con quién? Y, quizás aún más importante, ¿quién decide todo eso? He estado leyendo estos días el interesante libro The Code Book de Simon Singh (http://www.amazon.com/ exec/obidos/ASIN/0385495323/infonomia) sobre la historia de los sistemas y tecnologías de cifrado de mensajes a lo largo de la historia. En él se relata la incesante lucha entre los que a lo largo de los siglos han ido inventando sistemas para proteger el contenido de los mensajes y los que se han dedicado a idear métodos para burlar esa protección. Parece ser que en este momento ganan la batalla momentáneamente los del primer grupo gracias a tecnologías basadas en el algoritmo RSA (http://www.rsasecurity.com/rsalabs/rsa_algorithm/index.html) pero que en el futuro lo que puede decantar la balanza es el desarrollo de nuevos y sorprendentes sistemas basados en los principios de la mecánica cuántica como los ordenadores cuánticos ( para más información consulta el artículo 26 de este documento) o la criptografía cuántica. Sin embargo, independientemente del resultado final de la lucha, lo que llama la atención es la gran cantidad de medios, tiempo e inteligencia que a lo largo de la historia se ha dedicado, por un lado, a intentar evitar compartir el conocimiento y, por el otro, a intentar saber lo que otros no quieren compartir. Y eso se hace más patente que nunca en un entorno cada vez más basado en las redes de comunicación. Tanto los servicios de inteligencia de los estados como las empresas dedican gran cantidad de recursos a la protección del conocimiento propio y el intento de apropiación del ajeno. Las últimas técnicas de espionaje industrial que se aprovechan de las cada vez más populares redes de área local inalámbricas son una prueba de ello (“The passers-by who are stealing your secrets”, Financial Times, 3/12/2001). Todo eso sugiere que tanto los estados como las organizaciones o los individuos tienen importantes incentivos para ser muy cuidadosos a la hora de compartir conocimiento. ¿Cómo casa esto con el “mantra” de compartir el conocimiento? Podría parecer que la respuesta a esa pregunta sea evidente para el caso de las empresas: compartir sólo dentro de la organización. Pero, por desgracia (…o no) las cosas no son tan sencillas. Resulta que los límites de una organización cada vez son menos claros. En lugar de una frontera nítida tenemos algo parecido a un campo de fuerza que va decreciendo de manera más o menos continua a medida que nos vamos alejando del núcleo central de la organización y en el cual encontramos, con un mayor o menor grado de implicación: los empleados fijos, los empleados temporales, las empresas subcontratadas, los aliados estratégicos, los clientes, los proveedores, los consultores, los intermediarios e incluso los competidores con los cuales se pueden establecer colaboraciones puntuales. ¿Hasta dónde hay que compartir el conocimiento? Además, en el caso que seamos capaces de identificar ese límite, ¿es posible mantenerlo? Como apunta Max Boisot, una vez los activos de conocimiento llegan a un grado de codificación y abstracción adecuados para su difusión interna, es muy difícil detener su difusión al exterior. Por otra parte, si decimos que el conocimiento es de las personas y es a ellas a quienes pedimos que lo compartan, ¿nos harán caso si no les damos la posibilidad de decidir con quién se va a compartir “su” conocimiento? Agustí Canals Know-org 42 35. Paisajes estratégicos Puede encontrarse un cierto paralelismo entre el proceso de creación de conocimiento que lleva a la gestación de una estrategia y la evolución de una especie en busca de la mejor adaptación a su ecosistema. (Tiempo estimado de lectura: 3 minutos) La formulación de la estrategia puede verse como uno de los procesos de creación de conocimiento más importantes en una organización. La estrategia determina para una empresa su manera de interpretar el entorno y de actuar con respecto a éste. Ya sea de manera formalizada, como consecuencia de un proceso de planificación estratégica, o a través de procedimientos más o menos intuitivos basados en el método de prueba y error, la estrategia acaba plasmándose en un conjunto de rutinas, prácticas y maneras de actuar. Éstas configuran una parte importante del conocimiento de la organización y constituyen lo que podríamos llamar su ADN. Este paralelismo con el genoma de un ser vivo me sugiere que podríamos pensar en el desarrollo de la estrategia como un proceso similar al que sigue una especie que va evolucionando dentro de un ecosistema para conseguir el máximo nivel de adaptación a su entorno. Evidentemente, éste sería un proceso “de abajo a arriba” muy diferente a los clásicos procesos de planificación estratégica “de arriba abajo”. En el libro At Home in the Universe (http://www.amazon.com/exec/obidos/ASIN/0195095995/infonomia), que ya comentamos brevemente en el número 29 de Know-org , Stuart Kauffman presenta lo que él llama el modelo de paisaje NK para explicar la evolución de las especies dentro de su ecosistema. Simplificando mucho, Kauffman viene a representar las infinitas posibilidades diferentes para el ADN de los individuos de una especie por medio de un paisaje formado por montañas y valles. Cada lugar en el paisaje corresponde a una determinada posibilidad para el genoma. Cuanto más elevado sea el lugar en el paisaje, mejor es la adaptación al entorno. Por tanto, para intentar conseguir el máximo nivel de adaptación, las especies van modificando su ADN mediante mecanismos como las mutaciones para llegar a las cotas más elevadas del imaginario paisaje. La gracia de los sistemas complejos es que lo que se descubre para unos puede ser aprovechado para otros. El modelo NK lleva a interesantes conclusiones que quizás pueden ser interesantes para los estrategas empresariales. Veamos algunas. Es imposible saber si la estrategia que utilizamos es la mejor posible. Podemos saber que estamos en la cima de una montaña, pero desconocemos si hay otra montaña más alta. En la definición de estrategias hay que utilizar métodos diferentes según la situación. En un paisaje con una sola gran montaña (tipo Fujiyama) conseguiremos subir a la cima a base de pequeñas mutaciones paulatinas que nos hagan subir la ladera poco a poco. En cambio, en un paisaje con múltiples picos (tipo Himalaya) sólo tendremos posibilidades de encontrar uno de los picos más altos mediante grandes mutaciones que nos hagan “saltar” de una montaña a otra. El primer caso puede asemejarse al de un sector industrial maduro donde las mejoras son incrementales y el segundo a un sector emergente donde aparecen soluciones radicalmente diferentes para los mismos problemas hasta que una de ellas acaba dominando. Las estrategias en un momento determinado son consecuencia de la historia. En algunos ecosistemas que se han estudiado, es imposible entender cómo se ha llegado a las interrelaciones existentes entre las distintas especies si no se tienen en cuenta otras especies ya extinguidas que habían formado parte de ellos en el pasado. ¿Cómo se entiende, si no, que el estándar actual de video sea el técnicamente discreto VHS? Las especies pueden evolucionar en su paisaje, pero éste ve al mismo tiempo modificada su orografía por la evolución de las demás especies del ecosistema. Una estrategia que ahora es adecuada, que está dentro del paisaje en lo alto de una montaña, puede encontrarse de repente en lo más hondo de un valle a causa de cambios en las estrategias de proveedores, clientes o competidores. Por tanto, nuestro sino es estar siempre dispuestos a ir recorriendo el paisaje en busca de una estrategia óptima que nunca encontraremos. Agustí Canals Know-org 43 36. k-Life El triunfo final de la gestión del conocimiento se producirá cuando esté tan interiorizada que no haga falta ni mencionarla. (Tiempo estimado de lectura: 2 minutos) Esta semana tuve ocasión de asistir a una charla que dio para los investigadores del IN3 (Internet Interdisciplinary Institute) de la Universitat Oberta de Catalunya George Metakides, el Director de Tecnologías Básicas e Infraestructuras de la D.G. Sociedad de la Información de la Comisión Europea. Metakides destacó el concepto de “ambient intelligence” como la idea dominante en estos momentos en los círculos tecnológicos de la Comisión Europea. Es decir, la posibilidad que proporcionan las nuevas tecnologías que se están desarrollando actualmente de tener redes distribuidas de aparatos inteligentes que nos proporcionen información, comunicación y entretenimiento y que, además, se adapten a nuestras necesidades e incluso se anticipen a ellas (http://www.research.philips.com/generalinfo/special/ambintel/). Metakides situaba en este escenario, entre las tecnologías “disruptivas” de los próximos años, además de la inteligencia artificial y la teoría de los sistemas complejos, todas las que se utilicen para la gestión del conocimiento. Pero, además, el alto cargo de la CE consideraba tanto o más importantes las “habilidades de la sociedad del conocimiento”, como por ejemplo lo que él llamaba “las tres S”—simulación, selección y compartición (“sharing”)—o bien la capacidad de comprender sistemas complejos desde un punto de vista multidisciplinar. Probablemente la potenciación de esas “habilidades del conocimiento” a nivel general sea la contribución más importante de la actual moda de la gestión del conocimiento. Actualmente damos mucha importancia a las tecnologías y sistemas que nos ayudan a gestionar el conocimiento en un entorno concreto. Muchas organizaciones se plantean iniciar, si no lo han hecho ya, proyectos de gestión del conocimiento. Indudablemente, eso es importante. Sin embargo, el verdadero triunfo de la gestión del conocimiento se dará cuando la preocupación por ese recurso impregne todos los departamentos de una empresa, cuando a los estudiantes de MBA se les hable de conocimiento en la mayoría de sus clases, cuando no se conciba una planificación estratégica que no tenga en cuenta la manera de crear, transferir y utilizar el conocimiento. Entonces habremos entrado de lleno en la economía del conocimiento. Pronosticaba Metakides que a mediados de esta década empezaría a “caer” el prefijo “e-“ tan profusamente utilizado hoy en día en términos como “e-Commerce”, “e-Business” o “e-Culture” y que él proponía extender a “eGymnasium”, “e-Theater”, “e-Agora” o incluso... ¡”e-Temple”! En definitiva: “e-Life”. Cuando todo sea “e-algo” no hará falta poner la “e-“. De manera similar, el triunfo final—y “póstumo”—de la gestión del conocimiento se producirá cuando ya nadie crea necesario hablar de gestionar el conocimiento porque la idea formará ya parte de su vida cotidiana. Agustí Canals Know-org 44 37. GC en la tercera fase David Snowden, uno de los gurús más prestigiosos del ámbito, sostiene que hemos entrado en la tercera fase de la gestión del conocimiento. (Tiempo estimado de lectura: 2 minutos) En el Online Information meeting 2001 (http://www.online-information.co.uk/online/), celebrado el pasado diciembre en Londres, la gestión del conocimiento tuvo un papel muy relevante, tanto en los productos y servicios expuestos como en el programa de conferencias. Una de las charlas más interesantes llevaba el título de “Information for Innovation” y fue pronunciada por David Snowden, el director del “Institute for Knowledge Management” de IBM (http://www-1.ibm.com/services/kcm/kcm_ikm.html) en el Reino Unido. Una de las tesis de Snowden es que estamos entrando en la tercera fase de la evolución de la gestión del conocimiento. Durante la primera fase, entre los años 1990 y 1995, el acento estaba en conseguir que la información adecuada llegase a la persona que la necesitaba en el momento en que debía utilizarla. Privaba, por tanto, una visión basada mayoritariamente en la gestión de información. Las tecnologías desarrolladas, como el “data warehousing” (DW) o los “decision support systems” (DSS), tenían como principal objetivo extraer esa información de los datos almacenados en los cada vez más sofisticados sistemas informáticos. La segunda fase, según Snowden, se sitúa entre los años 1995 y 2001. En ella tienen una influencia fundamental las ideas desarrolladas por Ikujiro Nonaka en su libro The Knowledge-Creating Company (http://www.amazon.com/exec/obidos/ASIN/0195092694/infonomia). La máxima preocupación en este período es “convertir el conocimiento tácito en explícito”, aunque también empiezan a cobrar importancia nuevos conceptos más sociológicos como las comunidades de práctica ( información más detallada al respecto en el artículo 11 de este documento). Durante esta fase se observa entre los especialistas una cierta polarización entre los que sólo conciben la gestión del conocimiento a través de las tecnologías y los que desprecian las soluciones tecnológicas porque consideran que todo se basa en las interacciones humanas ( ver artículo 23 de Know-org). En la actualidad nos encontraríamos ya en el inicio de la tercera fase de la gestión del conocimiento. Los conceptos fundamentales en este estadio, según Snowden, son los contenidos, las narrativas y el contexto. Las herramientas necesarias en esta etapa deben contribuir fundamentalmente a la creación de redes que conecten estos tres elementos. Además, deberemos ser capaces de manejar el aspecto dual del conocimiento (como una “cosa” y como un “flujo”) al igual que la mecánica cuántica trata los electrones como ondas y como partículas al mismo tiempo. El principal objetivo debería ser, según él, construir sistemas en los cuales las personas y los ordenadores tengan una relación simbiótica. Snowden apuesta por la teoría de los sistemas complejos como paradigma fundamental en esta tercera generación de la gestión del conocimiento. De hecho, está trabajando actualmente en una prometedora línea de investigación que tiene como objetivo aplicar las teorías de la complejidad a la gestión del conocimiento y el aprendizaje en las organizaciones. Agustí Canals Know-org 45 38. Interacción social La importancia de los aspectos de interacción social en la gestión del conocimiento está cada vez más reconocida. Conceptos como la gestión de narrativas o la gestión del contexto son prueba de ello. (Tiempo estimado de lectura: 2 minutos) Según algunos, el principal error en los primeros pasos de la inteligencia artificial fue considerar las personas como seres aislados, sin tener en cuenta la importancia de la interacción social. En el libro Swarm Intelligence (http://www.amazon.com/exec/obidos/ASIN/1558605959/infonomia) [no confundir con el libro del mismo título Swarm Intelligence: From Natural to Artificial Systems, que ya ha sido comentado en Infonomia.com (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=603)], James Kennedy y Russell C. Eberhart proponen la idea que para modelar la inteligencia humana es necesario modelar los individuos en un contexto social interaccionando entre sí. En la interacción social, dicen, además del intercambio de información, se produce algo quizás más importante: el intercambio de reglas, pistas y creencias sobre cómo procesar esa información. Así, concluyen que la inteligencia es algo que sólo aparece en contextos sociales. Probablemente sus afirmaciones son matizables, pero no cabe duda de que aportan un punto de vista útil e interesante. De hecho, la preocupación por la función del entorno social se está extendiendo también en el ámbito de la gestión del conocimiento. Estamos viendo cómo cada vez más se está dando importancia a los procesos sociales que facilitan la creación y la compartición de conocimiento. Una prueba de ello son las ideas de David Snowden. En el número anterior de Know-Org decíamos que para Snowden los conceptos fundamentales en la tercera fase de la GC serían los contenidos, las narrativas y el contexto. No profundizaremos hoy en la gestión de contenidos, pero es evidente que tanto en el contexto como en las narrativas el aspecto social es clave. Snowden propone una “gestión de narrativas” a través de unas bases de datos de narrativas que capturen las historias que las personas se cuentan relacionadas con su trabajo. Para él, esas historias son mucho más útiles como mecanismo social para transferir conocimiento que las “best practices”: un conocimiento es mucho más valioso cuando es divulgado antes de que sepamos si ha tenido éxito, ya que para entonces probablemente las circunstancias que lo hacían valioso ya habrán cambiado. Además, a menudo se produce la reacción muy humana de pensar que nuestras circunstancias son muy diferentes a las de los demás y que “nadie puede decirme lo que yo necesito saber”. Las historias son simplemente historias y no pretenden decirnos lo que debemos hacer, pero pueden ayudarnos a encontrar la solución a nuestros problemas. Historias y narrativas, dice Snowden, hacen que la gestión de los contenidos funcione mucho mejor. Otro aspecto que Snowden resalta es el de la “gestión del contexto”: facilitar el contacto y la conexión entre las personas. Confiaremos en los demás si les conocemos y se han hecho merecedores de esa confianza. Por tanto, es necesario estimular la creación de redes sociales que nos permitan aprovechar al máximo el contexto en el que nos encontramos. Como le oí a decir a alguien no hace mucho: “Content is king, but context is queen”. Agustí Canals Know-org 46 39. De dónde viene la gestión del conocimiento: tendencias Tres tendencias sociales y económicas pueden explicar el surgimiento de la gestión del conocimiento: la globalización, la ubicuidad de las TIC y la comunicación y la visión de la organización centrada en el conocimiento. (Tiempo estimado de lectura: 2 minutos) ¿De dónde viene la gestión del conocimiento? Ésta es la pregunta que intenta responder Laurence Prusak (http://infonomia.com/grandes/grandes.asp?id=8090), uno de los padres de la gestión del conocimiento en un artículo publicado en IBM Systems Journal (http://www.research.ibm.com/journal/sj/404/prusak.html). En él Prusak analiza por una parte los factores que propiciaron la aparición del interés en la gestión del conocimiento y por otra sus antecedentes tanto a nivel de las disciplinas intelectuales más tradicionales como de las áreas profesionales de carácter más práctico. Los principales catalizadores en la aparición de la gestión del conocimiento como disciplina son, en opinión de Prusak, las siguientes tendencias: · La globalización: A causa de la necesidad de competir en mercados globales y, por tanto, ofrecer productos nuevos con mayor rapidez y a mercados más amplios, se hace patente la necesidad de saber qué sabemos y de preguntarnos qué deberíamos saber. · La generalización de las tecnologías de la información y la comunicación (TIC): La cantidad de información (aunque quizás deberíamos hablar de datos) a la que tenemos acceso ha aumentado de manera espectacular. Sin embargo, nuestra productividad no ha aumentado de la misma manera. Eso ha hecho que nos veamos obligados a resaltar el valor de las capacidades cognitivas, aún no replicables por los ordenadores, que nos permiten utilizar esa información de manera adecuada. Así, dice Prusak, aspectos del conocimiento como el criterio, el diseño, el liderazgo, la toma de buenas decisiones, la capacidad de persuadir, la voluntad, la innovación e incluso la estética y el sentido del humor cobran más valor que nunca. · La visión de la organización centrada en el conocimiento: Cada vez se hace más popular, por parte de economistas, académicos del management estratégico y otros especialistas, la visión de las empresas o instituciones como “un conjunto de capacidades coordinadas, unidas de alguna manera por su propia historia, y limitadas en su efectividad por sus actuales habilidades cognitivas y sociales”. En palabras del premio Nobel de Economía Sydney Winter (ver el artículo núm. 33 de Know-org), “organizaciones que saben cómo hacer cosas”. Está claro que el componente principal de esas capacidades es el conocimiento, especialmente el que está mayoritariamente en forma tácita y que es específico de la organización. Este conjunto de factores propiciaron en el mundo de la gestión empresarial una preocupación por el conocimiento y, como consecuencia, una serie de iniciativas que finalmente desembocaron en el surgimiento de un nueva disciplina: la gestión del conocimiento. Sin embargo, esa nueva disciplina no es un castillo en el aire: tiene raíces profundas en tradiciones intelectuales y profesionales que vienen de antiguo. Veremos cuáles son en el próximo artículo. Agustí Canals Know-org 47 40. De dónde viene la gestión del conocimiento: tradiciones La gestión del conocimiento recoge tradiciones intelectuales provenientes de la economía, la sociología, la filosofía y la psicología. Por otra parte, también bebe de las fuentes de práctica profesional como la gestión de información, el movimiento por la calidad y el capital humano. (Tiempo estimado de lectura: 3 minutos) En la segunda parte del artículo que ya comentamos en el número anterior de Know-org, Laurence Prusak enumera las principales tradiciones en las que, a su modo de ver, se fundamenta la gestión del conocimiento. Tres son para Prusak los precedentes de la gestión del conocimiento desde un punto de vista intelectual: · La economía: Fueron economistas como Kenneth Arrow quienes identificaron por primera vez la importancia del conocimiento y del aprendizaje en las organizaciones. Además, cuestiones que tradicionalmente preocupan al análisis económico como la productividad, la definición de la función de producción o la definición de la unidad de análisis adecuada tienen mucho que ver con la manera en que se utiliza el conocimiento. · La sociología: Desde un punto de vista macro, la sociología se ha encargado de la definición y estudio de la sociedad post-industrial basada en el conocimiento. Trabajos como los de Daniel Bell o Manuel Castells son referencia obligada. Desde la vertiente micro, el estudio de las estructuras complejas de redes internas y comunidades tiene una gran relevancia para la gestión del conocimiento. · La filosofía y la psicología: El concepto mismo de conocimiento y su utilización tiene una larga tradición en filosofía y en psicología. Por ejemplo, la ya popular distinción entre conocimiento tácito y explícito proviene, en última instancia, de la filosofía aristotélica. Por otra parte, la psicología cognitiva presta una especial atención a los procesos mentales relacionados con el conocimiento. Las tradiciones profesionales que Prusak identifica como antecedentes en ciertos aspectos de la gestión del conocimiento son las siguientes: · La gestión de la información: Es evidente que la gestión del conocimiento tiene mucho que ver con la gestión de información. Los profesionales de la gestión de información con su focalización en la información—más que en las herramientas tecnológicas—y en las necesidades del usuario han desbrozado el camino para una buena gestión del conocimiento. · El movimiento por la calidad: La preocupación por la calidad ha propiciado el desarrollo de conceptos como el cliente interno, los procesos abiertos y los objetivos compartidos y transparentes. Según Prusak, la gestión del conocimiento ha recogido esos conceptos, las tecnologías de análisis y la idea de mejora continua del movimiento por la calidad y los ha adaptado a sus objetivos. · La aproximación basada en el capital humano: La conciencia cada vez más extendida del valor del capital humano y de las ventajas financieras que representa la inversión en las personas, principalmente a través de la educación y la formación es fundamental para la gestión el conocimiento. Creo que este artículo de Prusak constituye un ejercicio especialmente interesante en un momento en el que la inevitable especialización hace que los que trabajamos en este ámbito olvidemos a veces las múltiples facetas que puede ofrecer. En la gestión del conocimiento cristalizan, en torno a la necesidad de responder a una serie de preocupaciones de las organizaciones actuales, todo un conjunto de tradiciones científicas y de práctica profesional que aportan a este campo una gran riqueza. Tenerlo presente puede ayudarnos sin duda a abordar los problemas desde nuevos puntos de vista y aplicar, por tanto, soluciones más imaginativas. Agustí Canals Know-org 48 41. Qué entienden las empresas por GC Un estudio reciente sobre la gestión del conocimiento en las empresas españolas parece dibujar dos maneras distintas de ver la gestión del conocimiento en la empresa. (Tiempo estimado de lectura: 3 minutos) En el ámbito académico parece que va tomando cuerpo la gestión del conocimiento como un área de investigación definida que, como vimos en el artículo anterior, recoge toda una serie de tradiciones vinculadas a varias áreas de conocimiento. Probablemente es necesario ahondar un poco en la interdisciplinariedad de las distintas líneas de investigación, pero se está avanzando considerablemente. Una prueba de ello es la reciente celebración en Atenas del 3er Congreso Europeo sobre Conocimiento Organizacional, Aprendizaje y Capacidades (http://www.alba.edu.gr/OKLC2002). Dicho evento congregó a más de cuatrocientos especialistas en el tema que presentaron un gran número de trabajos de investigación, la mayoría de los cuales de un alto nivel académico. En el ámbito empresarial, sin embargo, es un poco más difícil detectar cómo está evolucionando el concepto de gestión del conocimiento. La amplitud y la indefinición del concepto mismo de conocimiento hacen que cada empresa tenga una visión distinta de lo que es gestionar el conocimiento. Además, a esa confusión contribuye de manera considerable el aprovechamiento—en algunos casos de difícil justificación—de la actual popularidad del término por parte de empresas desarrolladoras de software y de consultoría. Por ello me ha parecido interesante el recientemente aparecido informe “La gestión del conocimiento en España – 2001” realizado por Alberto Almansa, Director de Gestión del Conocimiento de CGE&Y, y los profesores Rafael Andreu y Sandra Sieber de IESE. En dicho informe (http://www.capgemini.es/news/informes/main.htm) se recoge el resultado de una encuesta realizada a una muestra de 1.091 empresas españolas con una facturación de más de 12.000 Millones de euros y más de 50 empleados. A partir de las 129 respuestas obtenidas se sacan algunas conclusiones interesantes sobre cómo ven la gestión del conocimiento las empresas españolas. Llama la atención, por ejemplo, que se observa una clara distinción entre dos perspectivas mayoritarias a la hora de concebir la gestión del conocimiento. La primera se centra en las personas, su desarrollo y el aprendizaje (44% de las empresas) y la segunda en la gestión de información y su almacenamiento (50%). Una tercera perspectiva, centrada en la medición del Capital Intelectual es claramente minoritaria (4%). Al analizar las acciones concretas se obtienen resultados similares en número entre las iniciativas “tecnológicas” y las “no tecnológicas”. En muchos casos se relacionan las soluciones tecnológicas con la gestión de información y las no tecnológicas con la visión centrada en las personas. Por ejemplo, uno de los aspectos a los que las mismas empresas dan más importancia es el conocimiento colectivo de los equipos de trabajo y, sin embargo, tienen un peso muy bajo los sistemas tecnológicos que pueden contribuir a la creación y aprendizaje de ese tipo de conocimiento. Las tecnologías se utilizan mayoritariamente para gestionar contenidos explícitos, no como herramienta para intercambio de conocimiento poco codificado o aprendizaje. Creo que es necesario romper esa barrera que parece surgir entre, por un lado, gestión de información y tecnologías y, por el otro, personas y procesos de aprendizaje. Es necesaria una visión integral que tenga en cuenta el conocimiento global de la empresa y que considere las tecnologías no como un fin sino como un posible medio— extremadamente útil si se utiliza adecuadamente—para potenciar todo tipo de conocimiento. Agustí Canals Know-org 49 42. Gestionar conocimiento en la universidad Las prácticas de la gestión del conocimiento deben poder hacer aportaciones importantes a un sector tan intensivo en conocimiento como la universidad. (Tiempo estimado de lectura: 3 minutos) Si hay un sector especialmente intensivo en conocimiento, ése es el de la educación superior. La creación de conocimiento y su transmisión forman parte de la razón de ser de la universidad. Los profesores de universidad han sido, probablemente, unos de los primeros trabajadores del conocimiento reconocidos socialmente como tales. No parece descabellado, por lo tanto, reflexionar sobre cómo las ideas de la gestión del conocimiento pueden incorporarse a las instituciones universitarias. Además, en mi condición de profesor universitario esa reflexión se hace inevitable. Apuntaré a continuación algunas de las cuestiones que me parecen interesantes al respecto. El auge de la GC coincide, probablemente porque algunas de las causas de ambos fenómenos están estrechamente relacionadas, con un período en el que se plantean importantes debates en el mundo universitario. Se ha pasado en pocos años de una universidad a la que sólo asistían las élites a una formación universitaria para una gran parte de la población. Las exigencias de la vida profesional hacen que ya no se contemple una formación universitaria inicial que sirva para toda la vida sino que cada vez más pensemos en el “lifelong learning”; es decir, en una formación a lo largo de toda la vida que nos permita actualizar periódicamente nuestros conocimientos. Las universidades deberán competir, pues, por atraer a un estudiante con experiencia profesional y que sabe mucho mejor lo que quiere. Por otra parte, para poder acceder a las grandes líneas de financiación de la actividad investigadora, las universidades deben ser capaces de atraer a los mejores científicos y de concentrar su acción en potentes grupos de excelencia. Y todo ello sin descuidar la retroalimentación que la investigación debe aportar a través de su interrelación con la función docente, la transferencia de tecnología y la difusión de conocimiento a la sociedad. Además, las posibilidades que nos brindan a todos niveles las tecnologías de la información y la comunicación (TIC) nos permiten pensar en nuevas maneras de plantear la actividad universitaria basadas en la virtualidad y la interactividad. Todo ello hace que tanto la docencia como la investigación, las dos funciones principales de la universidad, deban responder a nuevos retos. La GC puede hacer aportaciones, al igual que en todo tipo de organización, a la gestión de las instituciones universitarias. Y esas aportaciones pueden ser especialmente interesantes cuando el grado de virtualidad y de estructura en red de la universidad aumentan. Sin embargo, la GC puede hacer también algunas aportaciones específicas a la universidad tanto en la vertiente de docencia como en la de investigación. En la actividad docente, por ejemplo, la creación de grandes repositorios de “contenidos” (representaciones del conocimiento) en múltiples formatos y estructurados de tal manera que su recuperación y uso sea fácil a través de la red puede ser una herramienta potentísima que complemente tanto la docencia tradicional presencial como la virtual. De igual manera, el uso de espacios virtuales para la comunicación y el trabajo en grupo entre los estudiantes puede contribuir a la mejora del aprendizaje. Por otro lado, la creación de bases de datos en las cuales encontrar información sobre estrategias docentes o ejemplos de buenas prácticas puede ser de gran ayuda a los profesores para mejorar sus acciones desde un punto de vista pedagógico. O incluso se puede fomentar el aprovechamiento del conocimiento de las personas de la institución con la posibilidad de contactar y consultar expertos en campos diversos a través de aplicaciones tipo “páginas amarillas” o con el fomento de comunidades de práctica internas. Han sido sólo unos pocos ejemplos de GC en la actividad docente. Creo que hay muchas más posibilidades que tendremos que ir descubriendo. Otro día nos preguntaremos cuál puede ser la contribución de la GC a la investigación. Agustí Canals Know-org 50 43. La investigación científica y la GC Las peculiaridades de la investigación científica hacen que en ella la gestión del conocimiento tenga algunos elementos diferenciales, aunque no todos. (Tiempo estimado de lectura: 3 minutos) Un colega sostiene que el mundo de la investigación científica ha desarrollado el sistema de gestión del conocimiento más efectivo de la historia de la humanidad hasta el momento. La verdad es que difícilmente encontraremos otro ámbito en el que se haya diseñado un conjunto de procesos más útiles para la creación, almacenaje y transmisión de conocimiento útil que en la comunidad científica. El sistema del peer review proporciona un auto-aseguramiento por parte de la comunidad científica de la calidad de los artículos publicados. Así, las revistas científicas almacenan y difunden eficazmente un conocimiento que ha superado con éxito un cierto control de calidad. Este peculiar sistema hace que el investigador se deba más a su comunidad de referencia que a la institución a la que pertenece. Quien va a juzgar los objetivos y los resultados de su investigación—en definitiva, su competencia—no son sus superiores jerárquicos, sino sus pares. Van a valorar su trabajo aquel conjunto de personas que, esparcidas por todo el mundo, están tratando los mismos problemas. Y no puede ser de otra manera. Nadie más tiene competencias para realizar ese juicio. No es un sistema perfecto, pero ha dado hasta ahora grandes resultados. Comprender esa especificidad del ámbito de la investigación científica es imprescindible para la gestión de las instituciones que acogen en su seno a los investigadores. Facilitar la integración de éstos en su correspondiente comunidad científica debe ser una de las primeras medidas de gestión del conocimiento en universidades e institutos de investigación. Sin embargo, hay también otras acciones más específicas que las instituciones pueden tomar para fomentar y facilitar la creación de conocimiento científico y su difusión. Por una parte, las herramientas típicas de gestión del conocimiento pueden aplicarse a las tareas de gestión de la investigación como obtención de fondos, elaboración de propuestas, gestión de proyectos, organización de congresos, etc. que cada vez son más importantes. Pero también pueden realizarse acciones en torno a la misma tarea de investigación. Es necesario, por ejemplo, facilitar el contacto entre los investigadores, tanto a nivel formal como informal. Eso es especialmente importante cuando el objeto de la investigación requiere un tratamiento interdisciplinario. En estos casos, hay que conseguir que individuos pertenecientes a distintas comunidades científicas trabajen conjuntamente. Para conseguir el entendimiento es imprescindible el conocimiento mutuo a través del contacto personal. Es posible también utilizar elementos tecnológicos. Se pueden construir bases de datos que contengan información sobre los intereses de investigación de los distintos departamentos de la institución o de otras instituciones que formen parte de la misma red, los resultados de investigación obtenidos, las posibles fuentes de obtención de fondos, las oportunidades comerciales para los resultados de la investigación, etc. Todo ello puede formar parte, por ejemplo, de una intranet que además facilite la obtención de información sobre las políticas, procedimientos y servicios que afectan a la tarea del investigador. La investigación tiene un componente tácito fundamental que debe tenerse muy presente. Aún así, explicitar algunos elementos de conocimiento relativos al proceso de investigación puede ahorrar mucho tiempo de gestión al investigador. Agustí Canals Know-org 51 44. Shock: compartir el conocimiento manteniendo el control Un sistema desarrollado por los HP labs basado en las leyes del web y la tecnología peer-to-peer permite una mayor libertad a la hora de compartir conocimiento. (Tiempo estimado de lectura: 3 minutos) No hace muchos días tuve la oportunidad de asistir a una interesante conferencia de Bernardo A. Huberman (http://www.hpl.hp.com/shl/people/huberman/index.html), el director del área de “Information dynamics” de los HP labs, el centro de investigación de HP situado en Palo Alto, California (http://www.hpl.hp.com/). Los estudios realizados por Huberman y su equipo demuestran que, aunque la Web pueda parecer algo sumamente caótico, en realidad se observa en él un orden intrínseco. Es decir, pese a su inmensidad y a ser el resultado de la interacción de múltiples agentes, la Web obedece a unas leyes generales semejantes a las de la mecánica estadística. Por ejemplo, la probabilidad de encontrar al azar un sitio web con un número determinado de páginas viene dado por una expresión matemática sencilla que depende exclusivamente de una constante, del número de páginas y de un coeficiente. O bien, escogiendo dos sitios web absolutamente al azar se puede ir de uno a otro en promedio en tan sólo cuatro clicks. Todas estas “leyes de la Web” que Huberman expone en su libro de ese mismo título (http://www.amazon.com/exec/obidos/ASIN/0262083035/infonomia), tienen, según el autor, aplicaciones prácticas de utilidad por ejemplo en el descubrimiento de comunidades en la red o la mejora de sistemas de búsqueda de información. Sin embargo, la aplicación que más me llamó la atención de esas “leyes de la web” es el sistema llamado “Shock” (http://www.hpl.hp.com/shl/projects/shock/index.html), acrónimo de “system for Social Harvesting of Community Knowledge”. La idea es utilizar el conocimiento de las leyes que gobiernan las interacciones en un entorno virtual y el concepto de peer-to-peer, popularizado por aplicaciones como Napster y Gnutella, para diseñar un sistema para compartir el conocimiento a través de la red. Los sistemas tradicionales normalmente requieren que los expertos en algún tema se identifiquen como tales y que se tomen la molestia de describir su conocimiento e irlo manteniendo. A partir de los perfiles creados, los usuarios del sistema pueden contactar con los expertos y hacer sus preguntas. Este tipo de sistema supone una clara falta de privacidad, tanto por parte del experto que expone su perfil como del usuario que formula la pregunta. Y eso hace que difícilmente quien posee conocimiento tenga la posibilidad de escoger si quiere o no compartirlo con quien lo desea. Además, el mantenimiento de los perfiles supone una tarea suplementaria y a menudo tediosa. El resultado muchas veces es que el sistema resulta infrautilizado. Shock utiliza el estudio de las interacciones de cada usuario con su entorno digital (correo electrónico, páginas web, documentos, etc.) para crear un perfil automático que refleja su expertise y sus intereses. Ese perfil se almacena en una base de datos local y nadie más que el usuario tiene acceso a ella. Los distintos usuarios están conectados mediante una red peer-to-peer de manera que el sistema utiliza la base de datos de cada usuario para filtrar las preguntas que se lanzan y sólo llegarán a cada uno las que, por su perfil, puede ser que sea capaz de responder. El experto puede decidir si contesta o no la pregunta (de manera anónima si lo desea) o si establece contacto con quien la hizo. La gracia del sistema es que permite poner en contacto a quien necesita el conocimiento con quien lo posee, manteniendo el usuario el máximo control sobre sus datos. Sistemas parecidos, según Huberman, pueden utilizarse para detectar preferencias parecidas sin revelarlas, o para llegar a acuerdos en negociaciones sin necesidad de explicitar los objetivos de cada una de las partes. Agustí Canals Know-org 52 45. El principio 007 El “Principio 007” nos dice que modificamos y utilizamos nuestro entorno para poder vivir reduciendo al máximo el conocimiento necesario en nuestro cerebro. (Tiempo estimado de lectura: 3 minutos) La distinción entre conocimiento tácito y explícito es uno de los primeros temas en la gran mayoría de los libros sobre gestión del conocimiento. Esta idea se hizo popular sobre todo a partir de la publicación del famoso libro The Knowledge-Creating Company de Nonaka y Takeuchi. Dichos autores utilizan los conceptos que años antes había acuñado el químico y filósofo Michael Polanyi para diferenciar claramente el conocimiento tácito, que es “personal, dependiente del contexto y, por tanto, difícil de formalizar y comunicar”, del conocimiento explícito, que es “transmisible en lenguaje formal, sistemático”. Sin embargo, si nos remitimos a las ideas originales de Polanyi, vemos que, en realidad, no está hablando de dos tipos de conocimiento separados. Lo que Polanyi propone es que todo conocimiento tiene una dimensión tácita y una dimensión explícita. Es decir, que el conocimiento tácito y el explícito son dos caras de la misma moneda. Uno y otro se complementan y juntos constituyen el conocimiento que utilizamos para cualquier actividad. Al ir por la calle en bicicleta, por ejemplo, combinamos—entre otros muchos—el conocimiento tácito de montar en el vehículo con el conocimiento explícito del código de la circulación. O, al ir de excursión, utilizamos al mismo tiempo el conocimiento tácito derivado del sentido de la orientación del explícito que obtenemos gracias a un mapa. Lo tácito y lo explícito son dimensiones, a veces entrelazadas e indiscernibles, del conocimiento global que utilizamos para ir por la vida. Probablemente sea esa capacidad de explicitar una parte del conocimiento lo que ha dado una ventaja evolutiva decisiva a la raza humana frente a otras especies. El lenguaje nos permite no sólo comunicar fácilmente la dimensión explícita del conocimiento, sino también representarla y almacenarla en objetos que están fuera de nuestro cuerpo como pergaminos, libros o ordenadores. Así, manteniendo en nuestro cerebro la dimensión tácita del conocimiento y la mínima parte de la dimensión explícita que nos permite acceder a esos objetos externos, utilizamos nuestro entorno para tener a nuestra disposición una gran cantidad de conocimiento optimizando nuestro gasto de energía. Sólo hace falta recuperar la parte explícita del conocimiento que necesitamos en un momento dado y combinarla con la que mantenemos en nuestro interior para actuar. En cierto modo, este comportamiento es un ejemplo del llamado “Principio 007”. Dicho principio fue formulado por el filósofo y especialista en ciencia cognitiva Andy Clark, autor del excelente libro Being there: Putting Brain, Body, and World Together Again (http://www.amazon.com/exec/obidos/ASIN/ 0262531569/infonomia), y reza que: “En general, las criaturas evolucionadas no almacenan ni procesan información en formas costosas cuando pueden utilizar la estructura del entorno y sus operaciones sobre él como un sustituto para las operaciones de proceso de información correspondientes. Esto es, conociendo sólo lo mínimo necesario para hacer lo que se debe”. Entonces, propone Clark en Being There, ¿por qué no podríamos decir que es nuestro cerebro junto con esas estructuras externas lo que constituye en realidad nuestra mente? Es una idea, cuando menos, sorprendente. ¿Y si pensamos en un sistema complejo formado por un conjunto interrelacionado de cerebros y estructuras externas? ¿Podría ser eso la “mente” que “contiene” el conocimiento de una organización? Agustí Canals Know-org 53 46. Cynefin A la hora de intentar gestionar el conocimiento, debemos tener en cuenta que las organizaciones son sistemas complejos y utilizar lo que sabemos sobre ese tipo de sistemas. (Tiempo estimado de lectura: 3 minutos) Las organizaciones son sistemas complejos y todo lo relacionado con el conocimiento constituye una parte fundamental de esa complejidad (ver Know-org número 29). Por tanto, nos equivocamos si queremos obtener recetas simples y válidas para todas las situaciones que nos solucionen la gestión del conocimiento. Hay que aclarar que no es lo mismo un sistema complejo que un sistema complicado. Un avión, por ejemplo, es un sistema complicado. Consta de múltiples partes formadas a su vez por gran cantidad de piezas muy interrelacionadas entre ellas. Es posible, incluso, que no haya una sola persona que conozca todos los detalles del diseño de un aeroplano. Sin embargo, podríamos desmontarlo totalmente e ir deduciendo su funcionamiento a partir de las relaciones causa-efecto entre las distintas partes. En un sistema complejo, por el contrario, se observan unos patrones a nivel del sistema global, llamados “emergentes”, que no pueden ser deducidos a partir de las interacciones individuales de las partes. Por tanto, la manera de enfrentarnos a un sistema complejo no puede ser la misma que para los sistemas simples—por complicados que sean. No podemos entender las organizaciones exclusivamente desde un punto de vista taylorista como si fueran máquinas donde todo son relaciones directas causa-efecto que permiten predecir lo que ocurrirá o encontrar la receta inmediata para cada problema. Las relaciones a menudo no son lineales y el efecto de cualquier acción puede tener consecuencias imprevistas a nivel global. M. Mitchell Waldrop, en el libro Complexity (http://www.amazon.com/exec/obidos/ASIN/0671872346/ infonomia), donde narra el inicio de la disciplina que hoy conocemos como teorías de la complejidad, utiliza un ejemplo muy gráfico. En un río muy revuelto podemos adoptar dos soluciones para desplazarnos entre dos puntos. Podríamos utilizar una potente lancha motora capaz de vencer a base de fuerza bruta las corrientes y los remolinos. Pero otra manera de hacerlo sería observar el río para conocer perfectamente el sentido de las corrientes y la situación de los vértices. Entonces con un pequeño bote podemos aprovecharnos de éstos para nuestro objetivo. Utilizando los remos de forma puntual, por ejemplo, para incorporarnos a una corriente o para salir de un remolino que nos aleja de nuestra ruta, podemos conseguir nuestro fin. En un sistema complejo no es posible actuar de la primera forma. Debemos ser capaces de observar los patrones emergentes para, a través de acciones puntuales y concretas, utilizarlos a nuestro favor. Estas líneas de pensamiento parece que están cuajando cada vez más en la ciencia de las organizaciones en general, y de manera específica entre algunos estudiosos de la gestión del conocimiento. Un ejemplo de ello es la reciente creación en el seno de IBM del centro Cynefin para el estudio de la complejidad en las organizaciones (http://www-1.ibm.com/services/cynefin/) por parte del guru de la gestión del conocimiento David Snowden. Cynefin es una palabra de la lengua galesa de difícil traducción que viene a denominar el lugar en el que hemos crecido y al cual estamos adaptados y nuestra relación con él. Tiene cierta similitud con el Ba de Nonaka (ya comentado en el artículo 6), pero contiene una dimensión de tradición, donde las narraciones e historias juegan un papel fundamental. Como ya comentamos en otro artículo ( el 37 de este libro digital), Snowden apuesta por una tercera era en la gestión del conocimiento donde se da gran importancia a los contenidos, las narrativas y el contexto; y donde es fundamental entender la complejidad de las organizaciones para gestionarlas con éxito. Cynefin es un paso en esa dirección. Agustí Canals Know-org 54 47. Diez líneas de futuro Para avanzar en la gestión del conocimiento será necesario explorar nuevas ideas y líneas de trabajo. Proponemos diez para empezar. (Tiempo estimado de lectura: 2 minutos) Cada vez parece más extendida la impresión de que la gestión del conocimiento está perdiendo impulso y que acabará pasando como muchas otras modas. A ello están contribuyendo tanto los mediocres resultados de algunos proyectos que se vendían como la solución a todos los problemas de la empresa y la mala imagen que están creando algunas empresas consultoras y de tecnologías que intentan vender cualquier cosa bajo el nombre de gestión del conocimiento. Sin embargo, creo—o quiero creer—que la gestión del conocimiento continua teniendo sentido y que va a desaparecer como “fad” sólo cuando se haya integrado de manera natural a los procesos funcionales y estratégicos de las organizaciones y a las teorías de la gestión empresarial. Pero lo que está claro es que es necesario avanzar, conceptualmente y en la práctica, aprendiendo y explorando nuevas ideas. Como estamos a final de temporada con las vacaciones muy cerca, me atrevo a proponer diez líneas en las que creo que se puede avanzar en el campo de la gestión del conocimiento: 1. Nuevas tecnologías para la gestión de contenidos, con especial atención a las que permitan gestionar los formatos audiovisuales. 2. Explorar la relación conocimiento tácito-conocimiento explícito no como una oposición sino como una complementariedad. 3. Profundizar en una distinción clara entre datos, información y conocimiento que permita identificar lo que son realmente contenidos cognitivos desde un punto de vista práctico e implantar las metodologías adecuadas. Conozco ya algún proyecto de investigación que va en esa línea. 4. Conocer más a fondo el fenómeno del conocimiento colectivo y sus mecanismos. 5. El conocimiento como fenómeno emergente que surge en las organizaciones entendidas como sistemas complejos adaptativos. 6. Tecnologías que ayudan a la comunicación y a la interrelación en organizaciones en red. 7. Introducción de la variable espacio-temporal: ¿en qué casos—si es que los hay—el conocimiento sólo puede transmitirse de manera presencial y síncrona? 8. La relación entre la gestión del conocimiento y el e-learning. 9. Continuar el desarrollo y la aplicación de la teoría de la empresa basada en el conocimiento. 10. Diseñar sistemas para determinar el retorno de la inversión (ROI) en proyectos de gestión del conocimiento y para medir el capital intelectual. Como podéis ver, se trata de una especie de brainstorming sin un orden ni una secuencia lógica determinados. Seguro que ni son todas las que están, ni están todas las que son, pero a mi me ha resultado un ejercicio muy estimulante. Dejo en manos del lector completar la lista o, mejor aún, construir una mejor. Agradeceré cualquier aportación o crítica—aunque sea constructiva—al respecto. Mis mejores deseos para estas merecidas vacaciones. Agustí Canals Know-org 55 46. El valor del conocimiento La dificultad intrínseca en la valoración del conocimiento organizacional se agrava cuando intentamos valorar la aportación de los proyectos concretos al acervo global de conocimiento. (Tiempo estimado de lectura: 3 minutos) La toma de conciencia sobre la importancia del conocimiento en la actividad de las organizaciones ha generado, lógicamente, una preocupación creciente por conseguir asignar un valor a ese conocimiento. Los múltiples proyectos de gestión del conocimiento que se han emprendido en los últimos años, muchos de ellos sin resultados claros e incluso algunos claramente fallidos, han puesto de relieve la necesidad de encontrar métodos que permitan valorar el conocimiento de la organización. Y más aún en una coyuntura económica no muy boyante como la actual y teniendo en cuenta la cantidad de dinero que mueven dichos proyectos. Estimaciones de la consultora IDC (http://www.idc.com) citadas por Tom Stewart (http://www.business2.com/articles/mag/ 0,1640,36747,FF.html) elevan a 6.000 millones de dólares la cantidad total que se va a invertir en proyectos de software y servicios de gestión del conocimiento en 2002 En teoría, el resultado de cualquier proyecto de gestión del conocimiento debería ser fácil de determinar si podemos valorar los activos de conocimiento. Si el valor del conocimiento después del proyecto es superior al inicial en una cantidad superior a la del coste total, podemos considerar que el proyecto ha sido un éxito. Fácil, ¿no es cierto? Pero el quid de la cuestión es cómo se determina el valor del conocimiento. Y eso no parece tan fácil. Markus Perkmann identifica dos perspectivas distintas a la hora de abordar el la valoración del conocimiento (http://www.ki-network.org/downloads/knowledge_value_B7.pdf). La visión “macro” intenta capturar el valor de todos los activos de conocimiento de una organización a través de herramientas como el “Balanced Scorecard”, índices diversos o navegadores como el que utiliza la compañía sueca Skandia (http://www.skandia.com). La visión “micro”, por el contrario, se centra en determinar y cuantificar el impacto de los proyectos concretos de gestión del conocimiento como, por ejemplo, el desarrollo de bases de datos de conocimiento o de sistemas para fomentar la generación de ideas innovadoras o incluso la creación de comunidades de práctica. Lo que parece más difícil es conjuntar las dos visiones encontrando las relaciones causales entre las iniciativas concretas y su impacto en la cuenta de resultados. Los responsables de los proyectos evalúan a menudo de alguna manera sus resultados a través de procedimientos pragmáticos como encuestas, estudio de casos o estadísticas de utilización de los sistemas. Sin embargo, aunque dichos procedimientos pueden justificar el proyecto a la alta dirección, no determinan el aumento global del valor del conocimiento en la organización. Incluso cuando se calcula el ROI (retorno de la inversión) de un proyecto, no se tiene en cuenta generalmente el efecto que el proyecto tiene en otras partes de la organización. Y en proyectos de gestión del conocimiento ese efecto puede ser tan importante como el que genera el proyecto directamente. Probablemente parte del problema está en que nos empeñamos valorar algo extremadamente complejo como el conocimiento con sistemas contables pensados para sistemas lineales, más parecidos a máquinas inertes que a organizaciones formadas por personas. En el valor del conocimiento intervienen múltiples factores interrelacionados, tanto externos como internos a la organización, que hay que tener en cuenta. ¿Qué valor tiene una magnífica base de datos si no hay en la organización quien sepa utilizarla? ¿Qué valor tiene contar con los mejores expertos mundiales en máquinas de vapor si lo que el mercado pide son motores de combustión interna? Por otra parte, debemos tener siempre en cuenta que, en última instancia, el objetivo fundamental no es valorar el conocimiento, sino mejorar nuestra capacidad de explotar y crear ese conocimiento. Agustí Canals Know-org 56 49. Rutinas, "memes", "kenes" Rutinas, "memes" y "kenes" son distintas maneras de simplificar el concepto de conocimiento que permiten modelizar los procesos relacionados con él. (Tiempo estimado de lectura: 3 minutos) A estas alturas, no es nada nuevo decir que el conocimiento es algo extremadamente complejo. Y eso tiene, como ya hemos visto en otros artículos, consecuencias teóricas y prácticas en el ámbito de la gestión del conocimiento. Por ejemplo, intentar englobar en un modelo conceptual global todas las tipologías, características, funciones, usos y procesos relativos al conocimiento dentro de las organizaciones u otros sistemas sociales es una tarea muy difícil de acometer. Y aún lo es más si lo que pretendemos es que el modelo tenga un nivel de formalización que permita su tratamiento con herramientas matemáticas o informáticas. Sin embargo, sí es posible idear modelos más o menos formales que representen sólo algunos aspectos parciales del conocimiento. Sería algo parecido a lo que suelen hacer los teóricos de la economía cuando modelizan, por ejemplo, la competencia perfecta entre dos empresas o el mecanismo de una subasta, considerando sólo algunas de las variables implicadas, ignorando otros efectos que se dan en los casos reales. Se trata, en cierto modo, de aplicar el “Teorema del elefante” que ya describimos en el mensaje número 3, y analizar los distintos aspectos uno a uno por separado. Precisamente son unos economistas, Nelson y Winter quienes en los años 80 propusieron un modelo en el que una parte del conocimiento de una organización se concreta en unos elementos que ellos llaman “rutinas” y que constituyen patrones de comportamiento regulares y predictibles. Las rutinas pueden ser de muchos tipos. Por ejemplo, pueden ser rutinas tanto unos procesos de producción como una manera de atacar los problemas. Las rutinas son una característica de la organización y son heredables, por ejemplo, por nuevas fábricas de una misma empresa o por empresas subsidiarias. Lo más interesante es que a partir de ese concepto se pueden construir modelos matemáticos para describir procesos de innovación, es decir, de creación de conocimiento, que desde un punto de vista evolutivo presentan una alternativa muy interesante a los modelos económicos tradicionales basados en el equilibrio estático. Otro concepto similar para representar el conocimiento es el de “meme”, que ya había propuesto en 1976 el biólogo Richard Dawkins en su libro The Selfish Gene (“El gen egoísta”). El “meme” es el equivalente cultural al gen biológico, es algo que puede replicarse pasando de una persona a otra como una idea, una moda o un estilo de construir catedrales. Igual que los genes, los “memes” pueden sufrir modificaciones en el proceso de replicación. Y, al igual que los genes también, los “memes” más fuertes sobreviven y los más débiles desaparecen. Una interesante manera de pensar en el conocimiento. Algo parecido es lo que propone el sociólogo Nigel Gilbert. En el artículo titulado “A Simulation of the Structure of Academic Science” (http://www.socresonline.org.uk/2/2/3.html) utiliza el concepto de “kene” como “un cuanto de conocimiento”. Representando el “kene” por una cadena de bits consigue construir un modelo de simulación del comportamiento de la publicación de artículos en las disciplinas científicas realmente sorprendente. Parece obvio que ni rutinas, ni “memes”, ni “kenes” pueden representar toda la complejidad del conocimiento humano. Sin embargo, a través de ellos podemos llegar a entenderlo un poco mejor. Agustí Canals Know-org 57 50. La importancia de la competencia informacional Difícilmente llegaremos a una buena gestión del conocimiento si no empezamos por asegurar la competencia informacional de las personas de la organización. (Tiempo estimado de lectura: 3 minutos) La función principal de la gestión del conocimiento es asegurar fundamentalmente dos procesos: la creación y la transmisión de conocimiento. De esta manera la organización consigue optimizar la utilización de sus activos de conocimiento en la creación de valor. Evidentemente, hay otros procesos de los cuales la gestión del conocimiento es responsable como al almacenaje de datos o documentos o la organización del conocimiento por medio de la definición de taxonomías, pero son procesos cuya función es de soporte a los dos fundamentales. De hecho, incluso esos dos procesos básicos están muy íntimamente relacionados. Probablemente no podemos desligar uno de otro. En el fondo, siempre creamos conocimiento en parte gracias a lo que otros nos han transmitido y en la verdadera transmisión de conocimiento lo que acabamos haciendo es crear nuestra propia versión de los que nos han intentado comunicar. En alguna ocasión ya hemos comentado que podríamos considerar que la información es aquello que un agente extrae de los datos y que le permite modificar su conocimiento. Se trataría, por tanto, más de un proceso que de un objeto, o bien de un objeto que no puede desligarse de un proceso. La información, pues, juega un papel fundamental tanto en la creación de conocimiento como en su transmisión. Parece evidente, pues, que una buena gestión de información será uno de los factores de éxito en un proyecto de gestión del conocimiento. Mientras la gestión del conocimiento intenta optimizar desde un punto de vista estratégico la utilización del conocimiento para aportar valor, la gestión de información adopta una perspectiva a nivel de los procesos concretos en los cuales interviene la información cuidando de que éstos contribuyan a los objetivos de la organización. Pero es obvio que dichos procesos tienen un papel relevante para que la gestión del conocimiento consiga sus objetivos. Podríamos decir que la gestión de la información forma parte de las bases donde se sustenta la gestión del conocimiento. Pero algo parecido ocurre cuando examinamos más de cerca la gestión de información. Para que los procesos con información funcionen adecuadamente es necesario que toda una serie de “microprocesos” que se producen cuando las personas interaccionan con la información se efectúen con eficacia y eficiencia. De ahí, por ejemplo, el gran interés que están despertando en los últimos tiempos campos como la visualización de información, la usabilidad o la interacción persona-ordenador (“Human-Computer Interaction”). Si embargo, algo a lo que parece que no se presta tanta atención es la competencia informacional. A mi entender, si los miembros de una organización no tienen las capacidades y las actitudes que les permitan, por ejemplo, encontrar la información que necesitan, procesarla y utilizarla de manera adecuada, no será posible una adecuada gestión de información y, por tanto, tampoco la gestión del conocimiento (debo estas ideas a Eva Ortoll, compañera de departamento y especialista en el ámbito de la competencia informacional). Es algo que deberían tener muy en cuenta quienes están al cuidado de los programas de formación de las empresas e instituciones: a veces, los mismos responsables de la gestión del conocimiento. Agustí Canals Know-org 58 51. El espacio aún cuenta, pero menos La transmisión a distancia del conocimiento menos codificado es más difícil, pero nuevas tecnologías y nuevas maneras de utilizarlas lo van facilitando cada vez más. (Tiempo estimado de lectura: 3 minutos) Parecía que en pocos años las tecnologías de la información y la comunicación iban a permitirnos superar absolutamente todas las barreras de espacio y tiempo. De hecho, los avances en ese sentido han sido realmente espectaculares en campos como el acceso a la información o la educación. Sin embargo, algunos hechos nos apuntan que el espacio, la distancia física, aún tiene su importancia. ¿Por qué, por ejemplo, las empresas y universidades de Silicon Valley se concentran en un espacio tan reducido, cuando podrían estar diseminadas por Estados Unidos, o por el mundo entero? O bien, ¿por qué los grupos sociales que más utilizan Internet y que son más creativos e innovadores tienden a preferir las grandes ciudades en lugar de la tranquilidad de la vida en el campo? Probablemente hay algunos aspectos de la creación y la transmisión de conocimiento que aún requieren la proximidad física. El conocimiento que es más fácil de codificar y que está menos ligado a un contexto determinado puede ser transferido con gran éxito por medios tecnológicos. El conocimiento tácito, el que difícilmente podemos ni tan siguiera explicar, y que muchas veces está profundamente asociado a un entorno dado, se propaga mucho menos fluidamente en las redes. De ahí que, para algunas cosas, la distancia aún es importante. Y eso tiene implicaciones importantes, por ejemplo, para una multinacional que planifica su expansión, o bien para un gobierno que quiere fomentar el crecimiento económico de una región. Pero sería un error pensar que esa situación no puede ir cambiando gradualmente en el futuro. Varios factores pueden jugar un papel en ese cambio. Por un lado, la evolución de las tecnologías y de la infraestructura de las redes de comunicación hace que cada vez dispongamos de una anchura de banda mayor (RDSI, ADSL, fibra óptica). Cuanto mayor es la anchura de banda, más cantidad de datos podemos transmitir simultáneamente y, por tanto, más riqueza puede tener el acto comunicativo. Una videoconferencia, por ejemplo, no es como una reunión cara a cara, pero es mucho mejor que una conversación telefónica. Además, también están evolucionando muy rápidamente las tecnologías que facilitan la interrelación y la colaboración entre personas. Según un reciente estudio de la consultora IDC (eINFORM, Volume 3, Issue 8) una de las tecnologías emergentes en el ámbito de la gestión del conocimiento es el de las aplicaciones de trabajo en colaboración. Nuevos avances en este tipo de herramientas pueden facilitar la transmisión de conocimiento con un grado de codificación cada vez menor. Por otro lado, las personas necesitamos un período de adaptación para aprovechar todas las posibilidades de las nuevas tecnologías. A medida que vayamos acostumbrándonos al uso de Internet iremos adaptándonos a utilizar ese medio para comunicarnos y encontraremos maneras de transmitir conocimiento menos codificado y crear contextos compartidos que nos permitan interpretar mejor los datos que recibimos. Y cuando toman el relevo nuevos usuarios que ya han crecido con el medio, las posibilidades son aún mayores. Sólo hay que ver, por ejemplo, el jugo que le sacan a la mensajería a través de los teléfonos móviles los adolescentes actuales. A efectos de creación y transmisión del conocimiento el espacio físico aún cuenta, pero las distancias se van reduciendo. Agustí Canals Know-org 59 52. e-Learning y Gestión del Conocimiento El e-learning y la gestión del conocimiento tienen varios puntos de contacto, tanto a nivel conceptual como en algunas de las herramientas que en el mercado utilizan esas etiquetas. (Tiempo estimado de lectura: 3 minutos) e-Learning y gestión del conocimiento parecen dos conceptos condenados a entenderse. Hay quien insinúa incluso que poca diferencia hay entre ellos (ver, por ejemplo, la interesante entrevista de Alfons Cornella a Roger Schank en Ke!; http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=650). No creo que sea así, puesto que uno y otro surgen como respuesta a problemas diferentes, aunque muchas veces relacionados. Mientras el e-learning trata de cómo utilizar las tecnologías en los procesos de aprendizaje, la gestión del conocimiento pretende optimizar la creación y el uso del conocimiento para obtener valor. Es evidente que algunas prácticas de la gestión del conocimiento pueden ser muy útiles para las instituciones que ofrecen o utilizan e-learning. Una adecuada gestión de contenidos es clave para optimizar su proceso de creación y facilitar su reutilización. Asimismo, la aplicación de técnicas utilizadas para fomentar la transmisión de conocimiento tácito como la creación de comunidades de práctica pueden trasladarse al e-learning en forma de comunidades virtuales de aprendizaje. Por otra parte, también es cierto que utilizando e-learning se pueden paliar carencias en el conocimiento de los miembros de la organización. Un programa completo de gestión del conocimiento debe considerar la utilización del e-learning entre otras metodologías de transferencia de conocimiento. Sin embargo, no creo que e-learning y gestión del conocimiento puedan identificarse. Uno y otro surgen como respuesta a problemas diferentes, aunque muchas veces relacionados. Mientras el e-learning trata de cómo utilizar las tecnologías en los procesos de aprendizaje, la gestión del conocimiento pretende optimizar la creación y el uso del conocimiento para obtener valor. La confusión surge muchas veces cuando se identifica el concepto con las herramientas creadas como respuesta a algunos de los problemas que plantea. Las herramientas pueden comercializarse con una u otra etiqueta, pero pueden incorporar elementos tanto de e-learning como de gestión del conocimiento. Los llamados Electronic Performance Support Systems (algo así como “sistemas electrónicos de apoyo al desempeño”), por ejemplo, son entornos de trabajo electrónicos creados para facilitar la ejecución de su tarea a la persona que los está utilizando (algo parecido al famoso “clip” de Microsoft Office, aunque espero que algo más efectivo...). Cuando durante el proceso el usuario llega a una situación que no puede resolver porqué le falta una información o no posee el conocimiento adecuado, el sistema lo detecta y se los proporciona. Así, en teoría, el aprendizaje se integra en la tarea, se minimizan las interrupciones y se consigue que personas con menos formación previa puedan realizar funciones especializadas o mejorar el desempeño de los especialistas. Los interesados pueden encontrar amplia información sobre este tipo de sistemas en el web de la Universidad de North Carolina (http://www.unc.edu/cit/2002web/guides/irg-47.html). Los EPSS tendrían, por tanto, algo de sistema de gestión del conocimiento, pero también incorporan conceptos de e-learning cuando ofrecen “píldoras de conocimiento” en forma de materiales de e-learning para ser utilizadas en el momento adecuado. Para mí, sin embargo, la relación más interesante entre e-learning y gestión del conocimiento es la que existe a nivel fundamental entre conocimiento y aprendizaje. ¿Qué son la creación y la transmisión de conocimiento si no procesos de aprendizaje? Agustí Canals Know-org 60 53. GC en medicina: hacia el JIT Se están desarrollando nuevos sistemas de gestión del conocimiento integrados en los procesos de trabajo que proporcionan conocimiento "just-in-time" para el apoyo a profesionales de alto nivel como los médicos. (Tiempo estimado de lectura: 3 minutos) Según un informe del Institute of Medicine de noviembre de 1999 titulado To Err is Human (“Errar es humano”) (http://books.nap.edu/catalog/9728.html), al menos 44.000 personas, y quizás hasta un total de 98.000, mueren cada año en los hospitales americanos a causa de errores médicos que podrían haberse evitado. En algunos casos la causa del error es simplemente la negligencia profesional, pero en muchos otros el problema radica en la falta de información o en el desconocimiento. Es prácticamente imposible para un profesional médico mantenerse al día del conocimiento que se genera día a día en su especialidad. Y mucho más conocer todos los avances de la medicina en general. Eso hace que algunas veces ese profesional no aplique unos valiosos conocimientos—que están a su disposición en forma de artículos científicos o de informes sobre pruebas médicas—con fatales consecuencias para el paciente. También resulta difícil tener en cuenta los numerosos factores que intervienen en una decisión médica, sobre todo cuando ésta se realiza bajo presión de tiempo y cuando la información no se puede obtener de manera fácil y en un formato que facilite su interpretación. El movimiento por la llamada “Medicina Basada en la Evidencia” (Evidence-Based Medicine) es un intento de mejorar la práctica médica en esos aspectos. La MBE se define como “el uso consciente, explícito y sensato de la mejor evidencia disponible en la toma de decisiones sobre el cuidado de los pacientes” (http://minerva.minervation.com/cebm/). Ello no quiere decir que el facultativo deba dejar de aplicar el criterio que se ha formado a lo largo de su carrera profesional, sino que puede completar esa experiencia con otras fuentes de conocimiento externas obtenidas a través de una búsqueda sistemática. El planteamiento parece totalmente lógico: es absurdo no aprovechar todo lo que pueda ayudar a salvar una vida humana. El problema radica, como pasa a menudo en la gestión del conocimiento, en cómo se operativizan esas ideas. En un artículo de julio del 2002 en Harvard Business Review titulado “Just-in-Time Delivery Comes to Knowledge Management”, Thomas Davenport y John Glaser describen una experiencia muy interesante llevada a cabo en un hospital de Boston. En vista de que las iniciativas tradicionales de la gestión del conocimiento para fomentar la compartición y la adquisición de conocimiento muchas veces no acaban de funcionar porque no se consigue la implicación de los trabajadores del conocimiento, se decidió incorporar el conocimiento especializado en los procesos de trabajo de los médicos a través de las tecnologías que éstos utilizan. Así, en el momento en el que el médico utiliza el sistema informático para recetar un medicamento, un programa automático puede acceder al expediente del paciente para prevenir una posible reacción alérgica o comprobar que no haya ninguna incompatibilidad con otros fármacos que ya esté tomando. Incluso, el sistema puede sugerir que en lugar del propuesto se recete un medicamento genérico o bien un sustitutivo que haya demostrado una mayor efectividad. O, por ejemplo, al solicitar una determinada prueba médica, el sistema puede detectar que dicha prueba ya se ha realizado en otras ocasiones con resultados negativos o bien sugerir pruebas complementarias en base a los parámetros que presenta el expediente del paciente. El sistema puede, incluso, proporcionar los últimos resultados de pruebas realizadas con los medicamentos o una relación de los últimos artículos publicados sobre las posibles dolencias del paciente en base a los síntomas que presenta. Y todo ello, justin-time, en el momento en que el médico está atendiendo al paciente. A pesar de que la decisión última es siempre del médico, el sistema puede resultar de inestimable ayuda e incluso salvar vidas. Es un ejemplo a considerar en el diseño de sistemas de gestión del conocimiento para profesionales de alto nivel. Agustí Canals Know-org 61 54. ¿Qué tipo de bien es el conocimiento? En las últimas décadas, las ciencias económicas han ido incorporando el conocimiento como un factor de importancia creciente en sus modelos. (Tiempo estimado de lectura: 3 minutos) A menudo leemos u oímos que estamos en la economía del conocimiento. El argumento que suele soportar esa afirmación es que el conocimiento, aunque siempre ha estado presente, está tomando ahora un papel preponderante en los procesos económicos. Esto es indudable. Pero puede ser interesante para los que estamos interesados en la gestión del conocimiento profundizar un poco más y ver cómo se trata el papel del conocimiento en las ciencias económicas. La verdad es que la economía tradicional no daba mucha importancia al conocimiento. Lo consideraba algo “exógeno”. Es decir, algo que existía, pero que venía dado y que no se explicaba mediante los modelos económicos. Sin embargo, en las últimas décadas se ha avanzado un poco más en la comprensión del papel del conocimiento en los procesos de la economía. Los economistas suelen clasificar los bienes atendiendo a dos propiedades: la rivalidad y la capacidad de exclusión. Un bien se considera “rival” cuando no puede ser utilizado al mismo tiempo por varias personas. Una bicicleta, por ejemplo, es un bien rival. Si un ciclista está montando en ella, nadie más puede usarla. En cambio, el alumbrado eléctrico es un bien “no rival”, puesto que el hecho de que el ciclista lo esté usando cuando pasa por la calle de noche no impide que los demás transeúntes lo utilicen también. Un bien es “excluible” cuando es posible impedir que alguien lo utilice y “no excluible” cuando ello no es posible. Un pastel es excluible porque quien lo posee puede impedir que otros se lo coman. En cambio, el aire es no excluible, pues nadie tiene la potestad de impedir a los demás que respiren. Tradicionalmente, los economistas han dividido los bienes en dos tipos: bienes privados como los coches o el mineral de hierro (rivales y excluibles) y bienes públicos como los faros o la defensa nacional (no rivales y no excluibles). Para los primeros, el libre mercado funciona aceptablemente, pero no así para los segundos. La existencia de bienes públicos provoca situaciones en las que hay quien se aprovecha del bien sin contribuir a su producción (el llamado problema de los “free riders”), ya que no se les puede obligar a ello. Además, el libre mercado no produce la cantidad necesaria de bienes públicos porque nadie puede capitalizar los beneficios que la gente obtiene de esos bienes. Es por esta razón que es el Estado quien suele encargarse de la producción de bienes públicos. ¿Qué tipo de bien es el conocimiento? En principio, el conocimiento parece más un bien público que privado. La teoría de la relatividad, por ejemplo, es algo que todo el mundo puede utilizar al mismo tiempo y a nadie puede impedírsele. Sin embargo, en algunos casos el conocimiento, aunque sea no rival, puede ser parcialmente excluible. Ya sea, por ejemplo, ejerciendo el derecho a la propiedad intelectual o bien simplemente manteniéndolo en secreto. La toma de conciencia sobre esas características peculiares del conocimiento ha dado lugar a partir de la década de los 80 a modelos económicos que incorporan ese factor como un componente fundamental, como algo “endógeno” al modelo y que se explica a través de éste. Es el caso, por ejemplo, de la llamada “New Growth Theory” (véase la excelente introducción a este tema de Joseph Cortright en http://www.impresaconsulting.com/ngt.htm). Sin embargo, algo que no parece tenerse en cuenta en la mayoría de modelos económicos es la diferencia que existe entre datos, información o conocimiento. Los tres conceptos suelen confundirse y ser tratados como si fueran lo mismo. En mi opinión, un clara distinción entre ellos redundaría probablemente en una mejora de la capacidad explicativa de los modelos económicos. Agustí Canals Know-org 62 55. Crecimiento La teoría económica nos muestra el papel fundamental del conocimiento en el crecimiento de nuestras economías. (Tiempo estimado de lectura: 3 minutos) El parámetro que se suele utilizar para determinar la marcha de la economía es el crecimiento. El nivel de crecimiento, por ejemplo, del producto interior bruto (PIB), nos proporciona una idea sobre cómo está la economía de un país. Podemos preguntarnos, sin embargo, si es lógico pensar que se pueda crecer indefinidamente de una manera sostenible si los recursos físicos—como el petróleo, el agua del mar o incluso el aire que respiramos—son finitos. Está claro que los recursos físicos son finitos. A medida que los vamos utilizando, desaparecen. Pero hay otro tipo de recursos que se comportan de manera muy diferente. Como vimos en el artículo anterior, el conocimiento es uno de ellos. El conocimiento es un bien no rival y sólo parcialmente excluible. El conocimiento, por ejemplo, no se gasta al ser utilizado, sino que incluso mejora, se hace más útil. Esas características del conocimiento hacen que sea un recurso fundamental a la hora de explicar por qué es posible pensar en un crecimiento, si no indefinido, sí sostenible a largo plazo. En efecto, los avances del conocimiento hacen que podamos combinar los recursos físicos de nuevas maneras y cada vez con más efectividad. Por ejemplo, la materia que forma un ordenador actual (metal, plástico, silicio, etc.) y el trabajo que se invierte en su construcción son aproximadamente los mismos que en los ordenadores de hace diez años. Sin embargo, sus prestaciones son muy superiores. La diferencia está en el conocimiento que se emplea. Y, a diferencia de lo que ocurre con los recursos físicos, el conocimiento puede ir aumentando de manera indefinida y ese aumento es cada vez más rentable a la hora de conseguir crecimiento económico. En términos de análisis económico, el conocimiento se diferencia de los recursos físicos como capital o trabajo en cómo se comporta el rendimiento de la producción al aumentar la cantidad de recurso. Al ir incrementando los recursos físicos de manera constante, la producción también se va incrementando, pero cada vez en menor medida. Es lo que se da en llamar “rendimientos decrecientes” de escala. En cambio, para el conocimiento ocurre lo contrario. Un aumento constante en el recurso conocimiento provoca un aumento cada vez mayor de la producción. Se dice que presenta “rendimientos crecientes” de escala. Esta característica peculiar del conocimiento dio lugar al desarrollo a partir de los años 80 de una nueva línea en la economía del crecimiento, liderada por el economista de Stanford Paul M. Romer (http://www.stanford.edu/~promer/). En esa “New Growth Theory”, el conocimiento tomaba un papel de variable fundamental en la explicación del crecimiento de la economía. Aún hay discusión entre los economistas sobre qué modelo concreto de los muchos posibles explica mejor el crecimiento, pero lo que parece claro es que la capacidad de creación y de utilización del conocimiento es imprescindible si queremos que nuestras economías crezcan (véase para una excelente introducción a las teoría económica del crecimiento el libro Apuntes de crecimiento económico del economista catalán de la Columbia University Xavier Sala-i-Martin). Es decir, que la gestión del conocimiento es necesaria también para el crecimiento de la economía. Sin embargo, el crecimiento por el crecimiento no debe ser el único criterio. A veces es mejor sacrificar un poco de ese crecimiento para que sus efectos se distribuyan de manera menos desigual en la sociedad. Quizá esa sea la única manera en que el crecimiento sea realmente sostenible. Una gestión del conocimiento global debe tener en cuenta también ese tipo de consideraciones. Agustí Canals Know-org 63 56. Evitar el modelo WORN Es preciso evitar que se invierta demasiado tiempo y esfuerzo en explicitar un conocimiento de manera exhaustiva si la probabilidad de necesitarlo es baja. (Tiempo estimado de lectura: 3 minutos) Uno de los objetivos primordiales de la gestión del conocimiento es conseguir que el conocimiento que existe en la organización se haga accesible a todos los miembros de la misma que lo necesiten en su tarea. Para ello, resulta muy útil que, cuando la naturaleza del conocimiento en cuestión lo permita, éste sea explicitado en bases de datos y documentos. Si estos elementos están bien organizados y existen sistemas que permitan encontrar lo que se busca en ellos, la información que permite reutilizar el conocimiento ya creado será fácilmente accesible a quien la necesite. Sin embargo, esa “captura” del conocimiento es algo que requiere una dedicación en tiempo y en esfuerzo por parte de quienes han creado o utilizado por primera vez ese conocimiento. En primer lugar, hay que intentar “formalizar” y “codificar” al máximo el conocimiento para que pueda ser interpretado por los demás. Eso es un esfuerzo añadido, ya que muchas veces no es necesario formalizar a la hora de utilizar el conocimiento. Los que hemos dado clase, por ejemplo, somos conscientes de que no es lo mismo saber resolver un problema que explicar con claridad cómo se resuelve: lo segundo requiere saber transmitir cómo lo resolvemos utilizando los códigos que puedan ser entendidos por quienes reciben la explicación. En segundo lugar, hay que dedicar un tiempo precioso a redactar documentos, introducir información en bases de datos, etc. Compartir conocimiento es algo que, si no se hace de manera voluntaria, difícilmente se hace bien. Por tanto hay que tener en cuenta que estamos pidiendo un esfuerzo complementario y valorarlo y facilitarlo en la medida de lo posible. Ya hemos sugerido alguna vez que esa actividad debería formar parte de los objetivos de los trabajadores del conocimiento y, por tanto, de los indicadores que determinen su progresión profesional y reconocimiento en la organización. También hemos comentado en alguna ocasión que hay que integrarla al máximo en los procesos de trabajo habituales. Hay que conseguir que al mismo tiempo que se utiliza el conocimiento, ya se ponga a disposición de los demás para que también puedan usarlo. Así la compartición se convierte en algo consubstancial a la tarea diaria en lugar de un trabajo suplementario. Pero creo que hay otro factor a tener en cuenta: hay que saber encontrar el justo equilibrio entre lo que hay que explicitar y lo que no. Si pretendemos que sea registrado absolutamente todo lo que se aprende en un proyecto, habrá que dedicar mucho tiempo y un gran esfuerzo y el resultado serán un conjunto de documentos y registros que no tenemos ninguna seguridad de que vayan a servir para algo en el futuro. Éste es el que algunos llaman el “modelo WORN” de gestión del conocimiento. El significado del término WORN proviene de las iniciales de la expresión: Write once, read never (“Escribir una vez, no leer nunca”). A mi modo de ver, para evitar eso hay que identificar cuáles son los mínimos elementos clave que hay que registrar en bases de datos y documentos para cada proyecto. El objetivo debe ser optimizar el grado de conocimiento que se explicita manteniendo a un nivel razonable el trabajo que eso supone. Aplicando el llamado “Principio de Pareto” o “Regla 80-20”, podemos pensar que aproximadamente registrando el 20% del conocimiento utilizado en un proyecto, si lo hemos seleccionado bien, tendremos cubierto un 80% de las ocasiones en que se necesite. De esta manera podemos lograr minimizar el tiempo y el esfuerzo dedicado a la gestión del conocimiento manteniendo su eficacia a niveles satisfactorios. Y así, además, evitamos que el compartir conocimiento se vea como una carga y, por tanto, que se haga mal o, simplemente, deje de hacerse. Agustí Canals Know-org 64 57. Olfato de gol A veces damos por supuesto que algunas habilidades forman parte del conocimiento tácito cuando eso no es del todo cierto. (Tiempo estimado de lectura: 3 minutos) Una de las discusiones recurrentes en el ámbito de la gestión del conocimiento es la que se refiere a la naturaleza del conocimiento tácito. Mientras que el inventor del término, Michael Polanyi, dejó claro en sus escritos que el conocimiento tácito, por su propia naturaleza, no se puede explicar (y, por tanto, explicitar), otros autores como Nonaka y Takeuchi propugnan la transformación de conocimiento tácito a explícito y viceversa como la base de la gestión del conocimiento. Probablemente la clave esté en que la misma distinción entre tácito y explícito no está tan clara como se da a entender a veces. El conocimiento siempre es una mezcla de elementos entrelazados, unos más tácitos y otros más explícitos. La posibilidad de explicitarlo más o menos depende de la capacidad propia de quien posee el conocimiento y de la disponibilidad de un código adecuado. Pensemos, por ejemplo, cómo algunos artistas son capaces de expresar sus sentimientos a través del arte, o bien, qué difícil sería para los cosmólogos explicar sus intuiciones sobre el universo sin recurrir al lenguaje de las matemáticas. Por eso en la práctica de la gestión del conocimiento en las organizaciones es necesario plantearnos siempre si es posible explicitar un poco más el conocimiento que se posee. Un caso muy interesante se presentaba no hace mucho en un artículo de Simon Kuper en el Financial Times titulado “How to score goals—and lots of them” (FT, 29/03/03) sobre el llamado “olfato de gol” de algunos futbolistas. La creencia popular es que el olfato de gol es un don misterioso, casi sobrenatural, que algunos jugadores poseen. Por eso los goleadores reciben a veces sobrenombres como “el brujo” Quini o “mágico” González. Sin embargo, en el citado artículo se demuestra que grandes goleadores como Gary Lineker, Rivaldo o Jimmy Floyd Hasselbaink son capaces de explicar racionalmente muchos aspectos de su habilidad de cara al marco contrario. Por ejemplo, Gary Lineker explica que su estrategia consistía en estar constantemente corriendo hacia los espacios libres en el área de meta. Así, cuando le llegaba un balón disponía de las décimas de segundo necesarias para poder rematar con efectividad. No se trata de estar, milagrosamente, “en el lugar adecuado en el momento preciso”, sino de “estar siempre en el lugar adecuado”. Otros, como Rivaldo, encuentran esas décimas de segundo de ventaja gracias a su dominio del balón y su habilidad en el regate. Para Hasselbaink, en cambio, lo fundamental es que, cuando está en el área iniciando una jugada de gol, tiene en su mente el mapa exacto de las posiciones de todos los demás jugadores implicados, especialmente el portero, y, por tanto, una idea clara de lo que tiene que hacer para marcar. Así, pues, si tenemos un “goleador” en nuestra organización, es bueno que lo sepamos y que podamos localizarle cuando le necesitamos. Pero intentemos también que nos cuente lo máximo posible sobre sus habilidades. De esta manera quizá podremos generar una buena cantera de nuevos valores y nos ahorraremos fichajes multimillonarios—y no por ello siempre efectivos—en el futuro. Agustí Canals Know-org 65 58. "Aprender haciendo"... otra cosa Un estudio demuestra que el “aprender haciendo” una tarea puede mejorarse si se combina con el aprendizaje de otra tarea relacionada. (Tiempo estimado de lectura: 3 minutos) El llamado learning by doing o “aprender haciendo” es muy importante en las organizaciones, especialmente para la transferencia o la creación de conocimiento tácito. Se produce cuando el proceso de aprendizaje se va efectuando al mismo tiempo que la realización de la tarea para la que dicho aprendizaje debe servir. Evidentemente, ello conlleva un proceso de prueba y error que hace que la tarea en cuestión no se realice al principio con la eficiencia deseada y a menudo requiere la supervisión por parte de alguien con más experiencia. A pesar de eso, para muchas habilidades se demuestra como un método bastante eficiente. Podemos preguntarnos, sin embargo, si es realmente el mejor sistema. ¿Hay otra manera mejor, más eficiente de aprender, en estos casos? Cierto es que cada persona tiene su propio estilo de aprendizaje y que para unos el método será más indicado que para otros en función de sus características cognitivas, pero parece que especialmente, como hemos dicho, para la incorporación de conocimiento tácito más o menos funciona. No estamos hablando, por tanto, de la adecuación del método de aprendizaje al individuo concreto, sino de si es posible, para cualquier individuo, mejorar el “aprender haciendo”. Estos días han llegado a mis manos un artículo publicado hace pocos meses en la revista Management Science que apunta a una respuesta afirmativa. En dicho artículo, titulado Learning by Doing Something Else: Variation, Relatedness, and the Learning Curve (Management Science, 49, 1, Jan 2003), los autores dan cuenta de una investigación que han llevado a cabo comparando la efectividad del proceso de aprendizaje en tres circunstancias distintas. En el primer caso, los sujetos se focalizan exclusivamente en la tarea que deben aprender a realizar y “aprenden haciendo”. En el segundo, además de trabajar en la tarea principal, se les proponen también otras tareas colaterales que están relacionadas con la primera pero que también deben aprender a hacer. Finalmente, en el tercer caso se les proponen otras tareas colaterales que tampoco conocen, pero en este caso no están en ningún modo relacionadas con la principal. En el estudio realizado se utiliza un contingente de voluntarios cuyo objetivo será aprender a jugar al Go enfrentándose a un ordenador. Los voluntarios se dividen en tres grupos y cada uno de ellos en equipos de tres personas. Mientras que los equipos del primer grupo sólo juegan al Go, los del segundo grupo juegan también al juego llamado Reversi (juego de tablero que tiene ciertas similitudes con el Go) y los del tercer grupo juegan al Cribbage (un juego de cartas totalmente diferente del Go). Los resultados son muy interesantes: mientras que el primer y el tercer grupos muestran una efectividad similar en el proceso de aprendizaje del Go, el segundo grupo obtiene unos resultados apreciablemente mejores. Según los autores, la razón más probable sea que a través del aprendizaje de una tarea similar se puedan extraer conocimientos generales que luego pueden ser aplicados a la primera tarea reduciendo la curva de aprendizaje. Creo que es algo a tener muy en cuenta, especialmente en las organizaciones donde se cree que la máxima eficiencia se consigue con puestos de trabajo fijos e inamovibles ocupados por “especialistas”. Por cierto, encontré este artículo buscando... otra cosa. Agustí Canals Know-org 66 59. Conocer es también saber interpretar A menudo es más efectivo saber interpretar bien poca información que disponer de grandes cantidades de ella. (Tiempo estimado de lectura: 3 minutos) Hace pocos días participé en Bruselas en una reunión de trabajo del consorcio encargado de un proyecto europeo en el cual la gestión del conocimiento juega un papel muy importante. Entre los participantes había varios especialistas en gestión del conocimiento, sobre todo desde un punto de vista tecnológico, provenientes de varios países europeos. Un comentario bastante generalizado era que la gestión del conocimiento está perdiendo fuerza como campo de investigación frente a nuevos ámbitos más “de moda” como la biotecnología o la bioinformática. En una situación económica como la actual, eso significa más dificultades a la hora de competir por los recursos procedentes de las empresas y de las instituciones públicas. Pero, por otra parte, me da la sensación de que tanto en las escuelas de negocios como en la mayoría de las empresas, está calando cada vez más el mensaje de la importancia clave del conocimiento en la gestión de las organizaciones. No ya como algo relegado a los departamentos de sistemas de información o de recursos humanos, sino como un elemento fundamental a todos los niveles, empezando por la alta dirección estratégica. ¿Estamos ante una contradicción? Yo creo que no. La clave está en qué entendemos por conocimiento y por su gestión. El pasado mes de mayo aparecía en la revista Harvard Business Review un artículo titulado “The High Cost of Accurate Knowledge”, de Kathleen Sutcliffe y Klaus Weber, de la University of Michigan Business School, que puede darnos alguna pista. En dicho artículo se analizan los resultados de un estudio empírico realizado sobre varias empresas comparando los resultados obtenidos con el “conocimiento” sobre su entorno competitivo de los altos ejecutivos encargados de tomar las decisiones estratégicas. En principio, parecería que cuanto más “conocimiento” tengan esos ejecutivos, mejores y más fundamentadas decisiones podrán tomar, y mejores van a ser los resultados. Sin embargo, las conclusiones del estudio son que, a nivel estratégico, es menos importante el nivel de precisión en el “conocimiento” del entorno competitivo de los altos directivos que la manera en que son capaces de interpretar la información que reciben sobre su entorno y de trasladar esas interpretaciones a sus respectivas organizaciones. Para mí, la clave está en que lo que se llama “conocimiento” en el artículo (y también en el párrafo anterior) es más bien información. El verdadero conocimiento es, también, lo que permite una correcta interpretación de la información y el comunicar esa interpretación de manera adecuada para que la organización actúe en consecuencia. Es un conocimiento de carácter más tácito y más difícil de adquirir, pero—precisamente por eso— fuente también de ventajas competitivas más sostenibles. Desde este punto de vista, en un entorno rápidamente cambiante como el actual y en unas organizaciones cada vez más complejas, la gestión del conocimiento es más necesaria que nunca. Los resultados del estudio son otro aviso para aquellos que aún creen que la gestión del conocimiento es tan sólo cuestión de tecnología, bases de datos o, incluso, información. Agustí Canals Know-org 67 60. Organizar la GC No todas las empresas pueden permitirse el lujo de construir toda una estructura profesional para gestionar el conocimiento. (Tiempo estimado de lectura: 3 minutos) Hace poco cayó en mis manos un artículo escrito por Thomas Davenport—uno de los grandes “gurús” de la gestión del conocimiento—y Sven Völpel en el Journal of Knowledge Management (Vol. 5, Núm. 3, 2001). En uno de los apartados del artículo “The rise of knowledge towards attention management”, los autores describen las capacidades y funciones necesarias para una adecuada gestión de conocimiento en una organización. Se requieren, según ellos, distintas funciones a tres niveles distintos. En el nivel superior, con gran visibilidad, está el rol de CKO (Chief Knowledge Officer). Dicha función tiene gran importancia operativa como cabeza visible de todas las funciones relacionadas con el conocimiento, pero también tiene una función simbólica vital: que el máximo responsable de la gestión del conocimiento forme parte de la alta dirección es un signo inequívoco de la importancia que la organización confiere al tema. En el segundo nivel encontraríamos un grupo de mandos intermedios que deben actuar como project managers. Deben ser profesionales que entiendan el conocimiento y cómo se usa en la organización y deben ser capaces de fomentar la creación, la compartición y el uso del conocimiento entre los demás empleados. El tercer nivel estaría formado por todos aquellos empleados que trabajan con el conocimiento en su día a día y pueden tener funciones muy distintas. Entre ellas, por ejemplo, facilitar la creación de redes y comunidades de práctica, crear y alimentar los registros de los repositorios de conocimiento, construir y mantener las aplicaciones tecnológicas relacionadas con el conocimiento, incorporar la orientación al conocimiento en las políticas de recursos humanos, etc. Mientras estaba leyendo el artículo, pensé lo que probablemente muchos de vosotros estéis pensando ahora: esto está muy bien para grandes empresas con un elevado presupuesto para la gestión del conocimiento, pero en organizaciones más reducidas o sin muchos recursos para dedicar a la gestión del conocimiento, ya es muchísimo poder disponer de una persona dedicada a pleno tiempo a la gestión del conocimiento. En la mayoría de las organizaciones construir esa estructura de tres niveles es algo impensable, una quimera. Es necesario entonces estrujarnos un poco el cerebro para conseguir gestionar el conocimiento casi con la misma gente que ya está trabajando en la organización, y sin que dejen de hacer lo que están haciendo. El reto no es fácil, pero pueden conseguirse resultados sorprendentes actuando con inteligencia. Por ejemplo, utilizando adecuadamente las herramientas tecnológicas que existen. Hoy en día existen productos no muy caros y realmente interesantes. La clave está en conocer antes de escoger el producto qué queremos hacer con él. Otra receta que suele funcionar es rediseñar los procesos de trabajo para que éstos incorporen tareas y actividades relacionadas con la gestión del conocimiento. De esta manera, la creación y captura de conocimiento se realizan como parte del mismo proceso de trabajo habitual, sin significar una carga adicional. Y lo más importante (aunque a menudo lo más difícil), introducir poco a poco en la cultura de la organización la idea de la importancia del conocimiento, y de que el tiempo dedicado a crear, compartir y utilizar el conocimiento no es tiempo perdido sino todo lo contrario. En definitiva, como dice Davenport, vamos hacia la economía de la atención: de nada nos sirve el conocimiento que tengamos si no tenemos tiempo para dedicarle nuestra atención. Agustí Canals Know-org 68 61. La Gestión del Conocimiento en las nuevas organizaciones El papel actual del conocimiento nos ha hecho preocupar por gestionar ese recurso, pero es también una de las causas fundamentales de que las organizaciones estén cambiando. (Tiempo estimado de lectura: 6 minutos) Las nuevas organizaciones que se vislumbran son muy diferentes de las existentes en la economía industrial. Y debemos darnos cuenta de eso si queremos que la gestión del conocimiento dé los frutos deseados. ¿Cómo son esas nuevas organizaciones? Creo que aún es pronto para poder dar una respuesta completa, pero podemos detectar algunos indicios. Hay una serie de características que podemos observar en las más avanzadas organizaciones actuales que afectan considerablemente la manera en que se debe abordar la gestión del conocimiento. Analizaremos algunas de ellas. Primero, el conocimiento se ha convertido en un factor central. Por supuesto, siempre ha habido conocimiento en las empresas, pero ahora el papel preponderante a la hora de crear valor ha pasado de los activos materiales a los inmateriales. Eso hace que la gestión del conocimiento no pueda ser una función aislada, ni tan sólo una actividad transversal. Es necesario que la preocupación por el conocimiento esté presente en todas las decisiones tomadas en la organización. En el futuro, el término “gestión del conocimiento” debería poder desaparecer, puesto que el concepto ya se debería haber incorporado a todos los niveles de decisión. Segundo, las organizaciones son cada vez más dinámicas. El cambio es permanente y, además, cada vez más rápido. No hay tiempo de recoger todo el conocimiento de una organización en documentos o en bases de datos, puesto que cuando lo hayamos hecho, se habrá vuelto obsoleto. Hay que fomentar culturas organizativas flexibles y adaptables, que faciliten en cada momento la generación instantánea del conocimiento adecuado para resolver el problema que se presenta. Y, a veces, preciso sacrificar la exhaustividad en el almacenaje de conocimiento en aras de la efectividad en su aplicación. Tercero, las organizaciones ya no son entes aislados, con fronteras definidas. La economía del conocimiento se asimila más a una red con múltiples nodos interrelacionados en mayor o menor grado. Las relaciones entre organizaciones y entre personas son de carácter temporal y a menudo dependen del proyecto concreto que estén realizando. Los equipos se hacen y deshacen en función de las necesidades. Ya no sirven las rígidas estructuras jerárquicas. Todo eso tiene claras implicaciones a la hora de fomentar la creación y la compartición de conocimiento. Y también presenta grandes retos a los sistemas de propiedad intelectual. Cuarto, las organizaciones son—como ya hemos comentado alguna vez—sistemas complejos. Y las teorías de la complejidad nos enseñan que en un sistema complejo no es posible planificarlo todo desde arriba confiando que nuestras acciones van a producir los efectos deseados. Las organizaciones no son como máquinas en las cuales sabemos qué va a pasar cuando movemos una palanca. Empresas e instituciones se parecen más a ecosistemas naturales, con delicados equilibrios en los cuales los flujos de conocimiento juegan un papel primordial. En lugar de querer imponer grandes proyectos de gestión del conocimiento desde arriba, vale la pena observar cuáles son los mecanismos del sistema y aprovecharlos potenciando los que nos interesan. Y, quinto, aparece un nuevo tipo de profesionales. Los nuevos profesionales del conocimiento que describe Richard Florida en su libro The Rise of the Creative Class son fundamentales en las organizaciones actuales. Para asegurar la creación de conocimiento, las empresas deben entender que no se les pueda tratar como obreros de la era industrial Y eso significa, desde ofrecerles retos intelectuales en el trabajo que les motiven suficientemente, hasta procurar que la empresa esté radicada en un lugar que les haga posible vivir en un entorno culturalmente estimulante. A pesar de algunos augurios pesimistas, pues, la Gestión del Conocimiento no está acabada. Tiene, eso si, que adaptarse a las nuevas organizaciones que ella misma está contribuyendo a construir. Estamos sólo al principio de un reto apasionante. Agustí Canals Know-org 69