CAPITULO II MARCO TEORICO 1. Antecedentes de la Investigación Durante seis meses de revisión bibliográfica de fuentes nacionales e internacionales no se encontró evidencia alguna sobre estudios en Venezuela que muestren relación directa entre las tendencias tecnológicas en el área de la Fusión Nuclear como fuente alterna de energía. Esto quizás se deba principalmente, a que la Fusión Nuclear es una ciencia emergente a nivel mundial y recientemente ha comenzado a ser conocida en el país. En el ámbito internacional, la literatura existente, relacionadas con las fuentes de energía y la Fusión Nuclear, es muy amplia, por tanto, se seleccionaron solamente aquellos trabajos de investigación en los cuales se analizan las categorías objeto de este estudio, permitiendo así hacer aportes a la investigación realizada desde el punto de vista teórico y metodológico. En Alemania investigaciones realizadas por el gran físico Hermann von Helmholtz, en 1854, expresaban que la propia gravedad del Sol suministraría una apreciable cantidad de energía. Este investigador se preguntó, ¿Qué suministra la propia energía del Sol? ¿Cuanto brillará hasta acabársele el combustible? ¿Desde cuando nos ha estado enviando su energía?, y 15 16 concluyó que si el Sol se estuviera contrayendo gradualmente, si toda su materia estuviera cayendo gradualmente hacia su centro, se estaría emitiendo suficiente energía para mantener su radiación durante mucho tiempo. Calculó que esta fuente proveería energía al Sol durante más de 20 millones de años basados en elementos pesados tales como el hidrogeno. Posteriormente se descubrió la radiación; la descomposición de los elementos pesados en otros más ligeros con emisión de partículas rápidas, portadoras de una gran cantidad de energía. Es esta energía, cuando se despide de los elementos radiactivos de las rocas, la que proporciona el calor interno de la Tierra. La radioactividad también permite hacer nuevas estimaciones de la edad de la Tierra, por cuanto la cantidad de productos acumulados residuales en los minerales indican la duración del proceso. Esto sugiere que la edad de la Tierra es mucho mayor de la estimada Helmholtz, quizás miles de millones de años. ¿Quizás el mismo tipo de fuente puede también suministrar las necesidades del Sol para tanto tiempo? Otra investigación realizada en 1947 por los físicos rusos Sakharov y Frank propuso la posibilidad de obtener la fusión fría, la cual es llamada fusión catalizada por muones. La cual caracteriza la distancia promedio entre núcleos que disminuye si la masa de la carga intermediaria es mayor. En las moléculas normales la carga intermediaria es un electrón. Por tanto, los investigadores propusieron una manera de acelerar el proceso de fusión fría el cual consiste en sustituir uno de los electrones de la 17 molécula de deuterio por un muon negativo. Esta partícula, aunque posee la misma carga que el electrón y tiene muchas propiedades idénticas al mismo, es doscientas veces más masiva. De esta forma concluyeron que los núcleos ligados por muones se acercan mucho y la probabilidad de fusionarse aumenta considerablemente. Así, el tiempo de espera para la ocurrencia de una fusión en una muestra de 1 cm³ de agua pesada a cuyas moléculas se les hubiera cambiado un electrón por un muon, es en este caso pequeñísimo, tan sólo 10-31 segundos. Su problema, sin embargo, consistió en obtener al mismo tiempo los 1022 muones necesarios. Por ello, estas conclusiones de Sakharov y Frank permanecieron marginadas durante una década hasta que, en 1956, el físico norteamericano Luís Álvarez descubrió accidentalmente la fusión en frío inducida por muones en una cámara llena de hidrógeno y deuterio líquidos. Álvarez años después relató que había descubierto la solución ideal al problema energético mundial. Sin embargo, al poco tiempo se convenció de lo insignificante de la energía que se obtiene en este proceso debido a la reducida vida media de los muones y al escaso flujo de muones cósmicos. En Italia en 1983, los físicos Fleischmann y Pons, expusieron que los núcleos pueden acelerarse de manera natural hasta alcanzar las energías necesarias para lograr la fusión. Ellos aseguraron haber logrado la fusión fría mediante un sencillo ingenio y a través de la electrolisis, con una barra de paladio rodeada de hilo de platino, sumergida en agua pesada (rica en 18 deuterio). Concluyeron haber obtenido el equivalente a un vatio de energía por centímetro cúbico de agua, lo que representaría un millón de veces más de lo que mostraron las emisiones de neutrones medidas y unas 50 veces más de la energía utilizada. Sin embargo, la comunidad científica no creyó tales resultados, intentando por todos los medios reproducir el experimento sin éxito. Es más, si esos datos fuesen correctos, los neutrones liberados habrían matado a todo el equipo científico que estuviera presente en el experimento. A pesar de que el experimento se ha vuelto a repetir sin obtenerse el mismo resultado, los dos científicos intentaron publicar el experimento en la revista Nature, pero no lo lograron al no responder a las lógicas preguntas de los equipos científicos de la publicación. Pese a la afirmación de que la fusión fría no era posible, el Profesor italiano Scaramuzzi, posteriormente, cambió algunos elementos de l experimento y, si bien no logró la energía "obtenida" por Fleischmann y Pons, pudo demostrar que la fusión en fría es posible. Su experimento eliminó la electrolisis y sustituyó el paladio por un ovillo de titanio, sumergiendo el titanio en deuterio gaseoso, y logrando un equilibrio entre la presión del gas y la temperatura, se consiguió la fusión. Scaramuzzi midió 491 unidades de neutrones emitidas cuando sólo esperaba contabilizar 30. En otro orden de ideas se hace referencia a la investigación realizada por Morales (2004) titulado Portafolio de Oportunidad de Negocios de Diodos de Emisores de luz. Su objetivo general fue proponer un portafolio de 19 oportunidades de negocios en el área de los Diodos de Emisiones de Luz para el área petrolera, coincide con la presente investigación pues incorpora procesos de investigación tecnológicas basados en estudios bibliométricos, con sustentación teórica en la incorporación de nuevas tecnologías para la industria petrolera nacional. El tipo y diseño de la investigación se definió considerando los criterios establecidos por: Bravo (1985), Chávez ( 2001), Hernández, Fernández y Batista (2003), Bisquerra (1989), como documental, descriptiva, no experimental, bibliométrica y transeccional – descriptiva. La población de estudios estuvo conformada por las patentes, publicaciones e investigaciones en el área de los Diodos Emisores de Luz (LED’s) para un total de 191 extraídas de un universo de 2359 documentos en el periodo de tiempo del 2000 hasta el 30 de Abril del 2003. Se empleó como técnica la recolección de datos el análisis documental y como instrumento la matriz de análisis. Para la base de datos de las patentes se utilizó la página Web de la Oficina de Patente y Marcas Registradas de España, así mismo la pagina Web de la revista científica Technologyreview, donde se encuentran publicaciones relacionadas con la tecnología del led´s. Se considera valida la matriz de análisis por presentar los datos tal cual fueron publicados, luego la autora los asocio a diferentes campos de aplicación según su contenido a fin de determinar posteriormente las tendencias tecnológicas. 20 Las patentes se clasificaron de acuerdo al campo de aplicación, seleccionándose los campos de electrónica, iluminación y óptica con los campos de estudios. Según su madurez y dominio la tecnología de los led´s fue considerada por Morales (2004) en su etapa Embrionaria e Incipiente. En el campo de electrónica se detectaron cuatro nichos de oportunidades, treinta oportunidades de negocio; en el campo de la iluminación cuatro nichos de oportunidades y diecinueve oportunidades de negocio y en el campo de la óptica, seis nichos de oportunidades y veintinueve oportunidades de negocios. Como resultado de su investigación Morales (2004) formula un portafolio tecnológico basado en la tecnología de led´s para la industria petrolera nacional cumpliendo con el objetivo general de su investigación. El aporte de este antecedente a esta investigación es de tipo metodológico, en cuanto a los métodos de análisis y recolección de datos e incorporación de nuevas tecnologías a las industrias. Por otra parte en el estudio realizado por Fontanet (2001) en su tesis Simulación de plasma de dispositivos de fusión por confinamiento magnético tipo tokamak, define como base esencial que en el estudio de la fusión por confinamiento magnético es crucial conocer con detalle las condiciones físicas del plasma confinado. En este sentido a lo largo de su tesis se estudio las propiedades del plasma de tokamaks y stellarators contribuyendo al desarrollo del código de transporte PRETOR, creado en el JET. 21 El código presentado por Fontanet permite simular la variación radial y la evolución temporal de las principales magnitudes físicas de un plasma de fusión, para valorar la bondad de los modelos implementados en el código y determinar la corrección de sus resultados, se toman estos de la simulación de las magnitudes más relevantes de diversas descargas y se comparan con los datos experimentales. De esta comparación se dedujo que las magnitudes simuladas presentan un buen acuerdo con los datos experimentales aunque debe destacarse que los errores experimentales son bastante grandes y no siempre están disponibles. De igual forma en esta tesis se observó la aplicación del código PRETOR para el estudio de la parada de emergencia de ITER-DDR, con 1500 MW de potencia de fusión funcionando en un estado estacionario en ignición, estudiando con detalle la evolución del plasma durante una parada implementada mediante la interrupción del suministro de combustible. En los últimos años la investigación de stellarators ha adquirido una creciente importancia debido a las ventajas que presentan este tipo de dispositivos. Además hay que destacar que el programa de fusión por confinamiento magnético español se centra en el Heliac Flexible TJ-II de la asociación EURATOM -CIEMAT. Por estos motivos y para disponer de un código que sea capaz de simular descargas de stellarators. En este sentido se observa en este trabajo de grado la inversión en tecnología y desarrollo de mecanismos que serán usados en el proceso de fusión, contribuyendo en los estudios del plasma y su mecanismo de 22 confinamiento, para adaptarlos a las nuevas tendencias y mecanismos que vayan surgiendo. En otro orden de ideas la tesis de Fontdecaba (2004), estudió el transporte de energía en plasma de fusión termonuclear controlada por confinamiento magnético, donde concluyo la importancia de conocer el transporte de energía en los plasmas, pues este transporte es el que hace que se enfríe más o menos rápidamente con lo que se obtendrán o no las reacciones de fusión. De igual forma Fontdecaba menciona que el transporte de energía en los plasmas es mayoritariamente turbulento o anómalo, y que hasta la fecha no hay una teoría que explique satisfactoriamente este tipo de transporte, siendo esencial para el estudio de este proceso las extrapolaciones y modelos semiempíricos en códigos de simulación validados. Uno de estos códigos de simulación está PRETOR-Stellarator coincidiendo con el planteamiento de Fontanet antes mencionado. Por otra parte según Fontdecaba un aspecto importante de los dispositivos de fusión son los diagnósticos, herramientas imprescindibles para comprender las propiedades del plasma confinado en su interior. Uno de los diagnósticos instalados en el stellarator heliac flexible TJ-II del Laboratorio Nacional de Fusión de Madrid es el espectrómetro de intercambio de carga, objeto de estudio de su tesis. Continúa Fontdecaba a lo largo de su tesis explicando que con la siguiente generación de máquinas de fusión se pretende aumentar las 23 prestaciones y llegar a demostrar la viabilidad de esta tecnología para producir electricidad. Para ello la máquinas deben ser mucho mayores y, por tanto, más caras y complejas. Por esto, diversos países han colaborado en el diseño y, en el futuro, construcción del dispositivo, como lo es el proyecto ITER a desarrollarse en Francia con la ayuda de las diferentes potencias mundiales, con el único fin de que los científicos de todos los países participantes puedan beneficiarse de los datos obtenidos por las nuevas tecnologías. Fontdecaba en su tesis realizó diferentes estudios de transporte de calor por los electrones en el plasma. Primero valido según el código PRETOR Stellarator con datos de descargas de TJ -II obtenidos mediante la participación remota. Seguidamente introdujo una modificación del código que permite simular con mayor exactitud la parte central del plasma, con estas modificaciones se realizó un estudio del modo de confinamiento mejorado de TJ -II. En semejanza con esta investigación, los estudios realizados por el autor se basaron en la transferencia de calor mediante códigos y diseños en reactores de fusión, al igual a una de las áreas objeto de nuestro estudio. A su vez. Fontdecaba aporta un gran adelanto es dispositivos de medición y control del calor generados en prototipos Stellarator y los cuales pudiesen ser aplicados a los dispositivos tipo Tokamak. En conclusión el propósito de la tesis de Fontdecaba fue probar una herramienta de participación remota comprobando que son aptas para su 24 empleo en grandes instalaciones científicas como lo son los reactores de fusión nuclear. Además profundizó el conocimiento de los plasmas de TJ -II y de igual forma que lo hiciera Fontanet en su tesis se baso en validar el código PRETOR-Stellarator, con la finalidad de obtener una herramienta útil para la simulación de plasmas de fusión. En el mismo orden de ideas la tesis de Schlatter (2004) menciona que la situación actual del plasma mediante métodos de fusión Tokamak con la finalidad de la producción de energía, mediante una estructura de confinamiento por un período de tiempo largo, pudiese ser un reto difícil, debido a que los iones pudiesen causar alguna inestabilidad en el transporte de energía. El rol de las partículas en plasmas ha sido estudiada en varios laboratorios, aun estando en etapa de investigación y desarrollo. Schlatter profundiza que mas estudios con respecto a las partículas iónicas contenidas en los plasmas debería ser mas estudiadas para el mejor entendimiento de su distribución al momento de interactuar en campos magnetohidrodinámicas debido a que estas podrían causar inestabilidades dentro del plasma. Al igual que este estudio, Schaltter lo que plantea es la necesidad de ampliar conocimiento en el área de confinamiento con la finalidad de la producción final de energía. Por otra parte, los grandes reactores de hoy en día como lo es el JET, en el centro de ciencias de la Universidad de Oxford (Inglaterra), operan actualmente produciendo la ignición de fusión, adicionalmente esquemas de 25 temperaturas mediante ondas de iones o rangos y frecuencias sobre la partículas supratermales, para algunos Tokamak es conveniente usar rayos para medir los iones altamente energéticos y detectores de neutrones. La tesis de Schlatter tuvo como propósito el estudio de partículas de alta velocidad usando datos de pasados experimentos tanto de los Tokamak como de las configuraciones de sus variantes. Luego de realizar su investigación concluyo que las igniciones auto sostenidas del plasma en el proyecto ITER dependerán del calor proporcionado en el reactor, donde las partículas alpha crecen un 5% de ignición a ignición, pudiendo producir grandes daños a las paredes del reactor. Aunado a estas investigaciones se encuentra el estudio realizado por Vergara (2006), destaca que no se puede continuar obteniendo energía a través de combustibles fósil, las cuales podrían sustentar por mas de 50 años, es debido esto que Vergara destaca que se deberían buscar otras fuentes de energía limpia como lo es la energía nuclear. A lo largo de su investigación Vergara expone unos valores con respecto al uso de la producción de energía mediante combustibles fósil, destacando que las tres cuartas partes de la producción global de la energía son a base de ellos. En el mismo orden de ideas el autor resalta la necesidad de una energía limpia debido al gran impacto que tendría la contaminación de seguir usando como fuente principal el combustible fósil, de igual forma resalta que 440 26 reactores generan en la actualidad un 6% de la energía primaria de algunos países, como lo son Francia, Lituana, Eslovaquia, Suecia entre otros, menciona también que los países lideres en el renacimiento nuclear son Estados Unidos, Reino Unido, G8, y Austria. Vergara se basa en que la energía nuclear ofrece oportunidades amplias, en el caso de producción de electricidad libre de dióxido de carbono y calor industrial, y en el ámbito tecnológico reconoce el avance en materiales, conocimientos y mejoramientos de servicios, de igual forma el autor realiza un proyección en cuanto al desarrollo de la energía nuclear, ubicando que durante el periodo entre 2030 y 2050 los reactores nucleares estarán en una etapa avanzada una vez lograda su comercialización global, y que para el año 2070 estarán fusionando en el mercado los reactores de fusión nuclear, es así que el autor concluye sus estudios y proyecciones en cuanto a la necesidad de sustituir el combustible fósil por métodos mas avanzados y su posible desenvolvimiento durantes los años venideros. Todas estas investigaciones, representan una significativa información en el área tecno lógica, creación de portafolios y tendencias tecnológicas. A su vez algunas de estas investigaciones se basan en el estudio de energía limpia a nivel tecnológico, son importantes por cuanto permiten conocer la madurez, las brechas y el estado actual de esta área. En consecuencia, es indispensable elaborar un portafolio de oportunidades a fin de que las instituciones, empresas o usuarios, estudien y comprendan esta nueva alternativa energética, con el fin de ser los primeros 27 en desarrollar y poner en práctica estas nuevas tendencias en sus centros de investigación, universidades e industrias. 2. Bases Teóricas Hablar de la obtención de energía limpia y económica mediante el uso de la Fusión Nuclear, para luego preparar un caso de negocio rentable para explotar esta nueva tecnología, requiere conocer de información tanto técnica como económica. Por estas razones, se ha desarrollado una investigación donde convergen varias teorías que comprende una serie de artículos, especificaciones, definiciones y teorías referentes a la Fusión Nuclear, sus propiedades tanto en frío y caliente, gestión tecnológica y evaluaciones económicas de proyectos. 2.1. Gestión Tecnológica. Gaynor (1999), considera que los conceptos “gestión” y “tecnología” por separado, cargan el peso de muchos significados, y el concepto de Gestión Tecnológica podría traducirse como gestión de la información o gestión de la investigación, sin preocupación alguna por el espectro global de las actividades que abarcan el concepto de los negocios con respecto al proceso de comercialización. El mismo autor considera la Gestión Tecnológica más parecida a la Gestión como una tecnología, definiéndola como el proceso de integrar los recursos y la infraestructura de la unidad de negocios en el logro de sus propósitos, sus objetivos, sus estrategias y sus operaciones definidos. 28 Según Alfonzo y otros (2002), el proceso de Gestión Tecnológica involucra actividades relativas a la identificación de nuevas oportunidades de negocios, apalancadas por la incorporación oportuna de nuevas tecnologías, así como, la elaboración del plan Tecnológico, como parte de las estrategias para asegurar la viabilidad futura de las empresas. Citan estos mismos autores que Irving Langmuir, Premio Nóbel en Físico-Química, define la Gerencia de la Tecnología como el sistema que garantiza la solución de necesidades y deseos de una sociedad, mediante la innovación continúa. Explica además, que, para gerenciar tecnología se requiere del manejo conjunto de profesionales que solucionen problemas operacionales con ideas innovadoras en beneficio de la sociedad y las corporaciones. Coincidente con esa conceptualización, Roberts (2002), profesor en Gestión Tecnológica del Instituto Tecnológico de Massachussets (MIT), en su discurso ante la Primera Conferencia Internacional sobre Gestión e Ingeniería en 1986, sugirió que para gerenciar la tecnología se requiere de un equipo multidisciplinario que resuelva problemas a través de soluciones innovadoras y hace énfasis en la palabra clave para la Gestión Tecnológica: Integración. A continuación se describen algunos conceptos que ayudan a comprender mejor el proceso de gestión Tecnológica, así como a desarrollar proyectos tecnológicos. 29 2.1.1. Tecnología. Hidalgo (1999), define tecnología como el medio para transformar ideas en productos o servicios, permitiendo además mejorar o desarrollar procesos. Por su parte Gaynor (1999), describe la tecnología de las maneras siguientes: Es el medio para llevar a cabo una tarea, incluye lo que es necesario para convertir recursos en productos o servicios, también incluye el conocimiento y los recursos que se requieren para lograr un objetivo. Es el cuerpo del conocimiento científico y de ingeniería que puede aplicarse en el diseño de productos y/o procesos o en la búsqueda de nuevo conocimiento. Para los citados autores sus definiciones encierran el accionar humano para satisfacer sus necesidades y van aún más allá cuando la convierte en un proceso que evoluciona constantemente. Gaynor (1999), clasifica las tecnologías en 10 tipos que se detallan a continuación: Tecnologías del Estado del Arte: Tecnologías que igualan o superan a las tecnologías competidoras. Tecnologías de Propiedad Intelectual: Tecnologías protegidas por patentes o acuerdos de reserva, que ofrecen una ventaja competitiva mensurable. Tecnologías conocidas: Pueden ser comunes a muchas organizaciones pero se utilizan de manera única. 30 Tecnologías esenciales: Son esenciales para mantener una posición competitiva. Tecnologías de Apalancamiento : Apoyan varios productos, líneas de productos, no clases de productos. Tecnologías secundarias: Sirven de apoyo a las tecnologías esenciales. Tecnologías de paso: Son aquellas cuya tasa de desarrollo controla la tasa de desarrollo de producto o de proceso. Tecnologías emergentes: Sirven en la actualidad como objeto de estudio para futuros productos o procesos. Tabla 1. Fases de la integración de la tecnología para la gestión tecnológica. Investigación Desarrollo Grado de Integración de las Funciones de los Negocios en la Gestión Tecnológica Investigación Desarrollo Diseño Manufactura Investigación Desarrollo Diseño Manufactura Marketing Ventas Distribución física Servicio al cliente FASE FASE FASE 1 2 3 Fuente: Gaynor, (1999), p.10. I&D Diseño Manufactura Marketing Ventas Distribución física Servicio al cliente Sistemas de información Recursos Humanos Finanzas Compras Asuntos Legales y Patentes Relaciones Publicas Administración General I&D Diseño Manufactura -Marketing Ventas -Distribución física Servicio al cliente Sistemas de información Recursos Humanos Finanzas -Compras Asuntos Legales y Patentes Relaciones Publicas Administración General Clientes Proveedores Otras influencias internas externas FASE 4 FASE 5 31 Según Gaynor (1999) en su tabla 1 define por fase el proceso de la integración tecnológica, dividiéndolo por fases, siendo su primera división el área de Investigación y desarrollo, debido que está fase es donde se origina toda la información y esquema de la tecnología en estudio, es necesario invertir tiempo y recurso en una buena culminación de la fase 1 debido a que todos los procesos están ligados con esta primera fase. En cuanto a la Fase 2 se engloba un poco más el área de manufactura, que ya teniendo establecidos los parámetros y definiciones básicas del objeto en estudio se puede comenzar su proceso de fabricación ya sea inicialmente en prototipo para luego masificarlo. En la fase 3 una vez diseñado la mejor forma de utilizar el nuevo objeto de estudio y siendo comprendidas todas sus características básicas, se procede a la distribución masiva entre clientes y usuarios objeto base del surgimiento de la tecnología. Gaynor en la Fase 4 menciona que se procede a la distribución física, recursos humanos, patentes entre otros, dando así origen en esta etapa a la legalización de los derechos de autor, comercialización a gran escala y masificación del producto u objeto de estudio. En la ultima fase el autor incorpora proveedores y otras influencia, debido a que por ya pertenecer al dominio público en este caso a causa de la osificación y distribución el producto u objeto de estudio pasa a masificarse en manos de proveedores y comienza el nuevo estudio de nuevas derivativas con el fin de mejorar el mismo. 32 2.1.2. Proceso de Identificación y Adopción de Tecnologías. Por medio de este proceso se identifica y adopta la tecnología más prometedora para el negocio. Para Alfonzo y otros (2002), este proceso se lleva a cabo mediante cuatro etapas: Identificar: Se detecta tecnología a través de estudios de inteligencia tecnología y elaboración de propuestas tecnológicas. Evaluar: Se establece efectividad, aplicabilidad y rentabilidad de la misma a través de proyectos pilotos donde se compra incertidumbre. Transferir: Se practican las lecciones aprendidas y se prepara el recurso humano para el nuevo proceso. Masificación: Es la materialización de la oportunidad a través de la adopción efectiva de la tecnología de punta que agreguen valor adicional. 2.1.3. Plan de Negocios. Para hablar de Gestión Tecnológica, se debe hablar de lo que es el Plan de Negocios, simplemente porque al identificar una tecnología a la cual se le visualice potencial comercial o científico, se debe crear este plan de negocios ya que el nuevo producto competirá en el mercado. Una persona con visión, al concebir una idea de un negocio, sabe lo que quiere y como llegar a ello, y también sabrá con que estrategias conseguirá su objetivo. Borello, (2000), define el Plan de Negocios como un instrumento sobre el que se apoya un proceso de planificación sistemático y eficaz. Este debe 33 entenderse como un estudio que incluye, por una parte, un análisis del mercado, del sector y de la competencia, y por la otra, un plan desarrollado por la empresa para incursionar en el mercado con un producto o servicio, una estrategia y un tipo de organización, proyectando esta visión de conjunto a corto plazo. A corto plazo; a través de la cuantificación de las cifras que permitan determinar el nivel de atractivo económico del negocio y la factibilidad financiera de la iniciativa, y a largo plazo, mediante definición de una visión empresarial clara y coherente. Por otra parte Douglas (2004) describe plan de negocios como la creación de un proyecto escrito que evalúe todos los aspectos de la factibilidad económica de su iniciativa comercial con una descripción y análisis de sus perspectivas empresariales. De cierto modo Douglas (2004) menciona como plan de negocio, una estrategia evaluatíva de las necesidades que la empresa y el empresario poseen dependiendo sus fortaleza y debilidades, este plan se origina mediante estudios de mercado, acciones a seguir y estudios socio económicos de factibilidad. 2.1.4. Ciclo de Vida, Madurez y Dominio Tecnológico. A lo largo de la historia de la humanidad se han visto nacer y desaparecer diferentes tecnologías, muchas de las cuales hoy día causan asombro por lo elementales que parecen, pero otras se ven como muy ingeniosas y visionarias a pesar de tener ya varios siglos de creadas. El hombre siempre 34 está innovando, pues su necesidad de satisfacer sus deseos no se detiene, además de su constante deseo de mejorar lo ya inventado siempre está presente. En el siglo XIX nadie hubiera creído que el hombre volaría para viajar de un lugar a otro, y a mediados del siglo XX, el hombre pisaba la Luna. Se vive en un cambio constante de modo de vida y de pensamiento, y en todo esto posiblemente la tecnología ha actuado como catalizador. Mediante esta comparación se observa que toda tecnología tiene un ciclo de existencia y tal como los seres vivientes nacen, crece y muere. Esta es la visión de Tapias (2000), quien divide el ciclo de vida de la tecnología en cuatro etapas: gestación, nacimiento, crecimiento y desarrollo, y finalmente muerte u obsolescencia. La etapa de gestación la asocia a la idea de crear un nuevo producto o proceso. Esta etapa está vinculada directamente con el cumplimiento de las necesidades y deseos existentes o latentes de los seres humanos, así mismo, cuando este producto o proceso ha sido creado lo asocia al nacimiento. El crecimiento y desarrollo está asociado con la adopción, propagación o difusión masiva de la tecnología. El éxito de la difusión masiva depende del momento u oportunidad en que entró el producto o proceso al mercado. Por último, la muerte u obsolescencia, que ocurre cuando ya se han agotado las posibilidades de innovaciones incrementales del producto o proceso. A nivel empresarial, esta tecnología ya no le rinde beneficios, no mejora su productividad, y en este momento es cuando muchas empresas adoptan nuevas tecnologías. 35 Esta etapa pudiera ser muy larga o no, muchas tecnologías mueren definitivamente pero otras se siguen utilizando tal y como fueron creadas. Por ejemplo, los televisores de circuitos no han logrado desplazar completamente a los de tubos de vacío e igualmente las maquinas de coser computarizadas no han desplazado completamente a las máquinas de pedaleo, así como los computadores portátiles no han desplazado a las máquinas de escribir eléctricas en ese uso específico. En muchas instituciones públicas en Venezuela todavía se exige la impresión de documentos o planillas con estos equipos, aunque utilizan para otros fines los computadores portátiles. Para Alfonzo y otros (2002), tanto el ciclo de vida como la madurez tecnológica tienen un comportamiento parecido al de una curva “S” de esfuerzo versus tiempo. Este comportamiento se puede observar en la Figura 1, que se presenta a continuación. MADUREZ TECNOL ÓGICA ETAPA MADURA ETAPA DE COMERCIALIZACIÓN ETAPA EMBRIONARIA Figura 1. CURVA “S” Madurez Tecnológica Fuente: Steele (1989) y Alfonzo y otros (2002). 36 El autor, define la Madurez Tecnológica como “el grado de disponibilidad de una tecnología”. Esta, a su vez, se divide en tres etapas: embrionaria, comercialmente disponible y comercialmente madura. El Dominio de la tecnología lo define como “la experiencia del usuario en la aplicación de una tecnología” y al igual que el concepto anterior lo dividen en tres etapas: uso incipiente, masificación y dominio. Para comprender ambos conceptos se explica a continuación el contenido de la Figura 2. La primera porción de la curva representa la etapa embrionaria de la tecnología. Dentro de esta porción están contenidas las tecnologías incipientes o en desarrollo, prototipos que posiblemente se encuentren disponibles en laboratorios o centros de investigación, y por lo tanto el conocimiento de esta tecnología es muy precario. Algunas de estas tecnologías no están accesibles al publico, por ser desarrollos de inteligencia militar en países desarrollados. MADUREZ DE LA TECNOLOGÍA CICLO DE VIDA DE LA TECNOLOGÍA ETAPA MADURA DESARROLLO ETAPA DE COMERCIALIZACIÓN CRECIMIENTO ETAPA EMBRIONARIA INCIPIENTE Figura 2 . CURVA “S” Madurez Tecnológica y Ciclo de Vida de la Tecnología Fuente: Steele (1989) y Alfonzo y otros (2002). 37 La segunda porción de la curva contiene las tecnologías de las cuales no se tiene suficiente información aunque están comercialmente disponibles, es la etapa de masificación de la misma y es accesible para todo tipo de usuario. Por último, en la figura 3, se observa la etapa de dominio en donde se encuentran tecnologías comercialmente maduras y bien conocidas, que ya han sido bien desarrolladas. DOMINIO DE LA TECNOLOGÍA DOMINIO USO MASIVO USO INCIPIENTE Figura 3. CURVA “S” Dominio de la Tecnología Fuente: Steele (1989) y Alfonzo y otros (2002). 2.1.5. Matriz de Análisis de Impacto . Una de las herramientas para la toma de decisiones en proyectos tecnológicos es la Matriz de Impacto. Alfonzo y otros (2000) la definen como una herramienta de apoyo a la toma de decisiones asociada a la materialización de una oportunidad de negocio. Consiste en la determinación de la importancia, urgencia, riesgo y creación de valor. Cada uno de estos parámetros se explica a continuación: 38 La Importancia está relacionada a las estrategias corporativas asociadas a la producción, y se refiere a como impacta la tecnología a una organización en el mediano y largo plazo. La Urgencia es un indicador de la viabilidad futura inmediata de la empresa. Se refiere a como impacta la tecnología a una organización a corto plazo. El Riesgo está asociado a la madurez y dominio de la tecnología, mientras más madura y más información se tenga de la misma, el riesgo para su implantación es menor. La Creación de Valor está asociada al tamaño de la oportunidad expresada reservas a producir y rentabilidad económica. Estos parámetros se definen a través de los perfiles bajo (B), medio (M), medio alto (MA) y alto (A), los cuales son determinados a través de jui cio de expertos (ver Figura 4). B I A U R V Figura 4. Matriz de Impacto Fuente: Alfonzo y otros (2002). MB M MA A 39 Si se tiene la función de masificar la tecnología se debe determinar el grado de madurez de la misma, de esta forma cuantificar el riesgo de masificación de la tecnología, dado que a menor grado de madurez mayor riesgo existe al momento de la masificación. Si la tecnología se encuentra en estado embrionario, se debe invertir en un proyecto piloto para comprar certidumbre. Cuando se alcanza el estado comercial se procede a transferir los conocimientos adquiridos en el proyecto piloto y una vez alcanzada la madurez de la tecnología se masifica la misma y se materializa la creación de valor adicional. 2.1.6. Análisis de Brechas. Mediante este instrumento se determina la diferencia entre la tecnología en uso con respecto a las nuevas tecnologías. Alfonzo y otros (2000), la definen como el análisis que permite determinar posibles debilidades y/u oportunidades asociadas a tecnologías en desarrollo y por tanto dicho análisis permite tomar decisiones estratégicas para el posicionamiento definitivo. Estas brechas las clasifican en brechas respecto a la tecnología y brechas de competitividad. Las brechas respecto a la tecnología representan la diferencia entre la tecnología en uso con respecto a la tecnología de punta. Las brechas respecto a la competitividad se originan al comparar el nivel de uso actual de una tecnología con respecto al uso de tecnologías de punta por parte de los competidores. 40 El aná lisis de brechas, simplificado por la matriz mostrada en la figura 5, consta de tres áreas: Área de riesgo mayor: riesgo de pérdida de competitividad y al mismo tiempo de alertas de posicionamiento futuro oportuno. Ubicada en las dos áreas sombreadas del extremo superior derecho. Área de riesgo medio : es el área sombreada media de la Figura, en la cual el riesgo es medio. Área de riesgo menor: es el área no sombreada de la Figura, representa la de bajo riesgo y es donde las acciones de posicionamiento pueden tomarse con más tiempo. Alta Media Alta Media Brecha respecto a los competidores Baja Media Baja Baja Baja Media Media Media Alta Alta Brecha respecto a la Tecnología Figura 5. Matriz de Análisis de Brechas. Fuente: Alfonzo y otros (2002). 2.1.7. Posicionamiento Tecnológico. Según Alfonzo y Otros, una vez aplicadas las herramientas anteriores en la evaluación de una oportunidad de negocio, (madurez tecnológica, análisis 41 de impacto, análisis de brechas) se deriva la información en la cual se deciden las acciones a seguir para materializar dicha oportunidad. Las acciones a seguir son: ejecutar proyecto tecnológico, invertir en investigación y desarrollo, transferir/ masificar y materializar alianzas tecnológicas. Mediante estas acciones se realizan estrategias de cierre de brechas para la materialización de oportunidades. Las mismas atienden a lo siguiente: Ejecutar proyecto tecnológico: se lleva a cabo cuando se requiere comprar información para cerrar brecha tecnológica. Invertir en investigación y desarrollo: Esta decisión se toma cuando el grado de madurez de la tecnología es embrionario, así como el grado de incertidumbre acerca de la potencialidad de la misma y cuando se tiene una brecha muy alta v, respecto a tecnologías de punta. Transferir / Masificar: se implementa cuando la tecnología en evaluación es dominada por la empresa y puede formar parte rutinaria de los planes de la empresa. Materializar Alianza Tecnológica: se realiza cuando la brecha existente respecto a los competidores es alta y se desea cerrarla en el menor tiempo posible para acelerar el aprendizaje organizacional. 2.1.8. Inteligencia Tecnológica. Alfonzo (1999) define como el conjunto de acciones coordinadas para la resolución e interpretación de información actualizada de cómo los usuarios y 42 competidores orientan la investigación, tratamiento, distribución y protección de la información útil para los entes responsables de los procesos de toma de decisiones. Para Flores (2000) coordinador de Inteligencia Tecnológica del IMP, maestro en ciencias, define inteligencia tecnológica como la investigación, en cualquiera de los ámbitos en que se realice, en incursionar en procesos de conocimiento que involucran los avances en la materia de que se trate en todo el mundo. En otras palabras, saber qué se hace y cómo se hace. Este ejercicio se realiza prácticamente desde que el hombre efectuó sus primeros desarrollos tecnológicos y a dado pie a los avances con que hoy contamos, la tecnología de punta que respalda tanto a instituciones como a empresas que se desenvuelven dentro de los parámetros de la ciencia. Sin embargo, efectuar esta revisión de los avances científicos y tecnológicos dentro de los marcos legales, con las herramientas adecuadas, tiene apenas una década de llevarse a cabo en el mundo. Hablar de ello es referirse a la Inteligencia Tecnológica, estrategia que no solo reditúa beneficios tecnológicos y científicos, sino también el las áreas comerciales de la organizaciones que ya la tienen en práctica, y que a nivel mundial reconoce a más de 6 mil 500 agremiadas en la Sociedad de Profesionales de Inteligencia Competitiva (SCIP). Los dos autores coinciden que la inteligencia tecnológica se base primordialmente en el conocimiento de información, y la forma como se interprete con fines prácticos para su utilización protegiendo en todo momento la interpretación de cada individuo. 43 2.1.8.1. Elaboración de Estudios de Inteligencia Tecnológica. Según PDVSA, citado por Salas (2001), los estudios de inteligencia tecnológica tienen la finalidad de detectar oportunidades de negocios que pueden ser evaluados como proyectos integrados de producción. Durante la ejecución de los estudios de inteligencia tecnológica se recopila, analiza e interpreta información sobre las capacidades y avances técnicos externos que facilitan la toma de decisiones y mejora las competencias técnicas propias. Los estudios de inteligencia tecnológica permiten: Proporcionar información sobre oportunidades de negocios apalancados por tecnología. Hacer seguimiento continuo, facilitar acceso y proporcionar información útil sobre tecnologías que agreguen valor a la corporación. Proporcionar información para la toma de decisiones en lo relativo a oportunidades de negocios apoyados en la adopción de tecnologías. Proporcionar estrategias para: cerrar brechas de competencias y tecnológicas, estimular innovaciones. 2.2. Fusión Nuclear Dies, Fontanet, Fontdecaba, Schaltter, definen la fusión nuclear como la energía que se libera de la unión entre los átomos. Concretamente en la fusión intervienen dos isótopos del hidrógeno: el tritio y el deuterio. Se 44 utilizan estos isótopos pues para que se produzca la fusión de los átomos -su unión- es necesario que sus núcleos tengan la mínima fuerza de repulsión, y esto se logra precisamente con los átomos más ligeros, los de hidrógeno, que sólo tienen un protón en su núcleo. En la fisión se requiere todo lo contrario, que los núcleos tengan la máxima repulsión posible, lo que consigue con átomos con muchos protones. Según Valdés, Rocha (1995) un átomo está compuesto por un núcleo , formado por neutrones (sin carga eléctrica y no siempre presentes) y protones (con carga positiva). Además consta de una envoltura electrónica a base de electrones, de carga eléctrica negativa. En la naturaleza todos los átomos son eléctricamente neutros , teniendo igual número de protones que de electrones. Para que la reacción de fusión sea posible hay que vencer la mencionada repulsión electrostática entre dos núcleos igualmente cargados. Es decir que, al existir núcleos atómicos con igual carga y según el principio de que cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas. Esto se logra gracias al calor, aplicando temperaturas de millones de grados. El problema referido proviene de la dificultad de encontrar un reactor que aguante esta temperatura. Dicha temperatura se logra en el interior de una explosión de fisión, que es el comienzo de toda bomba de fusión o bomba H. Con el calor se crea un nuevo estado de la materia, el plasma, en el que se da un absoluto desorden de iones y electrones. Una vez acabada la reacción de fusión nos 45 encontraremos con una esfera expandida con una temperatura de millones de grados en la que vagan los productos de la fusión (litio e isótopos del hidrógeno). Tal es su velocidad que pueden fundirse unos con otros dando lugar a la reacción de fusión. Esta reacción genera más energía que la anterior y libera gran cantidad de partículas nucleares, pero no es una reacción en cadena, ya que el propio calor que genera hace que las partículas se separen y se expandan en forma de esfera de plasma con una temperatura que tan sólo experimenta el universo de manera natural en muy raras ocasiones (supernova). Kendall (2005), profesor del Instituto Tecnológico de Massachussetts define que un átomo está compuesto por un núcleo, formado por neutrones con carga eléctrica positiva y neutrones sin carga eléctrica. A su vez, rodeando al átomo hay la envoltura electrónica a base de electrones, de carga eléctrica negativa. Kendall define que para que se de la fusión hay que vencer las fuerzas de repulsión electrostática entre dos núcleos igualmente cargados; esto es, al existir núcleos atómicos con igual carga, y dado que cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas. Esto se logra aplicando temperaturas de millones de grados. El problema viene de la dificultad de encontrar un reactor que aguante esa temperatura. Con este calor se crea un nuevo estado de la materia, el plasma, en el que 46 iones y electrones se hallan en total desorden concordando por lo dicho por Valdez y Rocha. Una vez acabada la reacción de fusión nos encontraremos con una esfera expandida con una temperatura de millones de grados en la que están los productos de la fusión (litio e isótopos del hidrógeno), donde cada gramo de Hidrógeno produce del orden de 173.000 Kilovatios/hora. Halffter (1995) menciona cuáles serian las posibilidades de que se produzca la fusión en las condiciones habituales de temperatura y presión. Aunque los núcleos normalmente se hallan alejados uno del otro y apartados por la barrera de repulsión eléctrica, la mecánica cuántica permite penetrarla. En otros términos, en el mundo microscópico las barreras no son insalvables debido al principio de incertidumbre y a las propiedades ondulatorias de la materia. En una molécula diatómica de un gas a la temperatura ambiente, por ejemplo, la distancia media entre los dos núcleos es del orden de 10-8 cm. Sin embargo, la posición no se puede conocer con precisión absoluta, pues entonces el ímpetu (y con él la velocidad) de los núcleos estaría totalmente indeterminado. Por lo tanto, la probabilidad de que los dos núcleos se encuentren en el mismo sitio y que choquen, no es nula desde un punto de vista cuántico. Sin embargo, este proceso de fusión, que bien podríamos catalogar como "fría", es muy poco probable. Así, las estimaciones más optimistas predicen que para que ocurriera un solo proceso de fusión en un litro de gas de hidrógeno a presión atmosférica 47 y temperatura ambiente (del orden de 20°C), habría que esperar un tiempo ¡mucho mayor que el transcurrido desde el origen del Universo ! Entonces, ¿qué hacer para acelerar el proceso? Conceptualmente, la manera más simple de inducir la fusión es producir, por algún método, núcleos con una energía cinética superior a la energía de repulsión eléctrica, para que así se acerquen mucho unos a otros. Una posibilidad es utilizar aceleradores de partículas, aparatos que con inmensos campos eléctricos y magnéticos pueden lograr que las partículas alcancen altas velocidades. Con estos aparatos se ha podido estudiar no sólo el proceso de fusión sino la estructura interna misma de los núcleos. Sin embargo para producir energía mediante la fusión nuclear; el uso de los aceleradores resulta inoperante, pues para acelerar cada núcleo necesitamos invertir mucho más energía de la que se obtiene de la fusión. Se debe, pues, buscar otros caminos. Como ya se ha visto, la reacción de fusión es más probable mientras menor sea la carga de los núcleos que se unen, pues entonces la barrera repulsiva es más pequeña. En consecuencia, se recurre al hidrógeno y entre los isótopos de éste al deuterio o al tritio, cuyas fusiones son muy favorables energéticamente. En la Tabla 2 se ve que Q es positiva, o sea que los productos finales de las reacciones posibles de fusión emergen con energías mayores de las que se impartieron a los núcleos iniciales. Además del valor Q para cada reacción se da, en la tercera columna, de la tabla, la probabilidad relativa con la que 48 puede ocurrir cada uno de los procesos. Así, las reacciones entre deuterones que producen ya sea 3He más neutrones o tritio más protones, se presentan con la misma frecuencia, pero aquella reacción entre dos núcleos de deuterio que produce 4He y rayos gamma es diez millones de veces menos probable que las dos reacciones anteriores. Por otro lado, las que se han marcado en la tercera columna como secundaria, también son poco probables, pues es necesario que alguna otra reacción haya tenido lugar antes. En particular; las que incluyen deuterio y tritio, obviamente requieren que este último ya se haya generado. Tabla 2. Fusion National Laboratory (CIEMAT) Reacción Valor de Q en MeV Probabilidad relativa d + d ?? 3He + n 3.3 1 D + d? ? ? +p 4.0 1 d + d ? 4He + ? 23.9 10-7 d + r ? 4He + n 17.6 Secundaria p + d ? 3He + ? 5.5 Secundaria p + r ? 4He + ? 19.8 Secundaria Fuente: Flores (1997) El uso del deuterio presenta varias ventajas adicionales. La primera, que en su abundancia como energético; pues puede extraerse del agua de mar con tecnologías bien conocidas. El tritio, por su parte, es más escaso, 49 aunque es un subproducto de las reacciones de fusión. El riesgo radiológico del tritio es pequeño si se le compara con el que implican los residuos de los productos de la fisión; hoy empleada en los reactores nucleares. Por un lado, la vida media del tritio es poco más de doce años, mucho más corta que la de los productos de fisión que alca nza miles de años. Por otro lado, el tritio al decaer emite un electrón con energías pequeñas, comparables a las producidas en un televisor a color; por lo que su penetración en el aire es apenas de unos cuantos centímetros. Sin embargo, el principal riesgo asociado al tritio es que lo inhalamos, pues reemplaza al hidrógeno del agua que hay en el organismo y causa irradiación interna. Carlos Alejaldre, Director of the Magnetic Confinement Fusion (2003) expone que la fusión nuclear es una fuente alterna de energía con grandes posibilidades y muchas ventajas sobre otros métodos, incluida la discutida fisión nuclear. Pero en la práctica las cosas no resultan tan simples. Fabricar un reactor de fusión nuclear controlada ha sido el objetivo de muchos años de investigación científica y tecnológica, y ha requerido de inversiones astronómicas. Aun así, sigue siendo una gran ilusión, y aunque algunos problemas se encuentran ya resueltos, aun quedan muchos otros por resolver. 2.2.1 Fusión en Frío Se basa en la electrolisis, con una barra de paladio rodeada de hilo de platino, sumergida en agua pesada (rica en deuterio) Alonso (1995). 50 Con este sistema, aplicando una corriente eléctrica, el deuterio se separa del oxígeno del agua y se acumula en la barra de paladio. Llegado un punto, los núcleos del deuterio y del paladio se funden a temperatura ambiente, provocando la reacción nuclear, que libera energía, detectada por la emisión de neutrones. Fleischmann y Pons aseguraron haber obtenido, el equivalente a 1 vatio de energía por centímetro cúbico de agua, lo que representaría 1 millón de veces más de lo que mostraron las emisiones de neutrones medidas y unas 50 veces más de la energía utilizada. Un solo litro de combustible satisfacería las necesidades energéticas de todo un edificio durante varios años, o de una familia durante toda su vida. Además, la energía de fusión fría, no sólo no contamina y es inagotable (como la de fusión en caliente), sino que también es muchísimo más barata de conseguir. Todas las naciones podrían tener sus plantas generadoras y se podría llegar a pensar incluso en vehículos movidos por fusión nuclear, equipos generadores portátiles, baterías atómicas inagotables, aeronaves y buques que no necesitaran repostar, entre otros. 2.2.2 Fusión en Caliente Tarrasa, Pino, Albajar del Departamento de Física e Ingeniería Nuclear (1998) define la fusión nuclear en caliente como el procedimiento mas investigado y consiste en la unión de los isótopos de hidrógeno (tritio y deuterio) a través de altas temperaturas (cien millones de grados 51 centígrados). Este inmenso calor es necesario para vencer la fuerza de repulsión electrostática de los isótopos (al tener la misma carga eléctrica), excitándolos de tal forma que llegan a unirse, creando un nuevo estado de la materia: el plasma. En nuestro Sol las reacciones de fusión nuclear ocurren de manera sostenida, sin que sea preciso inyectarle energía del exterior. Que éstas sean reacciones auto sostenidas, se debe a que el gas en el Sol se encuentra a muy altas presiones y temperaturas. Así, los núcleos en la estrella chocan con mucha frecuencia y gran velocidad, lo que les permite superar la barrera de repulsión eléctrica que los separa. Algo análogo ocurre en la vecindad de objetos cósmicos, como los pulsares y los cuásares, donde se producen campos electromagnéticos de gran intensidad. En un gas a alta temperatura, la velocidad promedio de las moléculas es grande. Por ejemplo, en el centro del Sol se tiene una temperatura de 20 millones de grados y la velocidad promedio de las moléculas es de 30 000 km/s, un décimo de la velocidad de la luz. Desde luego, hay algunas moléculas que son más rápidas que otras. Al aumentar la presión y comprimir al gas, acercamos más a las partículas, que ahora chocan con mayor frecuencia. Cuando el gas se halla a muy alta temperatura, los choques son muy violentos y pueden disociar las moléculas en átomos, o aun desprender de éstos a los electrones. 52 Se produce, pues, materia ionizada en forma de gas. Este es el estado en que se encuentra el Sol, y se le conoce como plasma, el cuarto estado de la materia. Para vencer la repulsión eléctrica en un gas formado por una mezcla de tritio y deuterio es necesaria una energía cinética mínima de alrededor de 100 000 eV. Ello implica una temperatura equivalente a mil millones de grados. Como antes se dijo, la temperatura es proporcional a la energía cinética promedio de las moléculas de un gas. Sin embargo, siempre hay moléculas más rápidas que el promedio correspondiente a una temperatura dada. Este hecho permite que a una temperatura considerablemente menor que esos 109 K pueda haber una actividad de fusión razonable y suficiente. Así, se ha encontrado que a unos 60 millones de grados la fusión nuclear puede auto sostenerse. El otro parámetro importante para mantener la fusión nuclear sostenida es la cercanía entre los núcleos, pues mientras más juntos se encuentren más probable es que se unan. Los físicos e ingenieros que intentan controlar el plasma usan el llamado parámetro de confinamiento, que es igual al producto de la densidad del gas por el tiempo que la densidad puede sostenerse. La condición mínima para la reacción de fusión autosostenida es que el parámetro de confinamiento sea mayor que 3 x 1014s/cm3 Si el valor es menor; se requiere inyectar energía al plasma, lo que se logra calentándolo. 53 Si se agrega una energía E, se obtiene del plasma una energía qE, donde q es un cierto factor de ganancia. Cuando q sobrepasa el valor unidad, el reactor se comporta ya como un amplificador de energía. Figura 6. El reactor Tokamak Fuente: Grupo de Física del Plasma, Universidad Carlos III, Madrid (2002) El problema tecnológico que plantea la fusión caliente es, pues, formidable: se debe confinar un plasma muy caliente durante un cierto tiempo. Debemos producirlo, calentarlo y todavía confinarlo. Para ello se requieren máquinas enormes, como el Tokamak, que se muestra en la figura 6 y que semeja una inmensa dona. En este aparato, el plasma se confina por la acción de campos magnéticos muy intensos y se le calienta por diversos medios, según su diseño para así mediante el cambio de temperatura y por su confinamiento genera mediante un proceso altamente tecnológico electricidad. Hoy existen en el mundo sólo seis grandes proyectos destinados a producir la fusión controlada. Cinco son del tipo Tokamak y, como se ve en la 54 Tabla 3, sólo los países más ricos son capaces de emprender acciones tan ambiciosas. En México, como en otros países de menor poderío económico, hay proyectos pequeños. Tabla 3. Los grandes proyectos de la física de plasmas Reactor Lugar País Inicio TFTR Princeton EUA 1982 JET Oxford CEE 1983 JT-60 Tokio Japón 1986 MFTF Stanford EUA 1986 Fuente: Valdés / Rocha (2002) El problema planteado por la fusión caliente es de gran magnitud. Sólo tres reactores de prueba operan hoy y sus valores del parámetro de confinamiento no están muy lejos de 3x 1014s/cm3, la condición que antes mencionamos para que la reacción se sostenga por sí misma. También el valor de q es cercano a uno, es decir; los reactores producen ya casi tanta energía como la que consumen. Este valor de q, sin embargo, no es suficiente para la operación comercial rentable, para la cual se requiere más bien un valor cercano a 20. Ya se proyecta una nueva generación de reactores, que podrán alcanzar esta meta en la primera o segunda décadas del siglo XXI. Entre las técnicas del siglo XXI, alternas a los reactores Tokamack, se halla la fusión inducida por láser. En ella, una mezcla de tritio y deuterio se calienta al concentrar varios haces de luz láser sobre una 55 pelotita, de un milímetro de diámetro, que contiene el combustible. La luz ultravioleta, que se obtiene después de pasar la radiación láser infrarroja a través de un cristal perfecto que triplica la frecuencia de la luz incidente, fuerza a los electrones a oscilar y éstos calienta n el plasma cuando chocan con sus iones. Al recibir tanta energía, el plasma en la periferia de la pelotita explota y, a causa de la tercera ley de Newton, ejerce una gran fuerza sobre el plasma en el interior de la bolita. Ésta se comprime mucho en consecuencia y las reacciones termonucleares pueden llevarse a cabo. 2.2.3 Tipos de Confinamientos El objetivo final de la investigación en fusión controlada es lograr la ignición, es decir mantener la combustión del plasma mediante el único aporte de energía de la propia reacción de fusión. En un reactor de D-T la energía del helio mantendrá la temperatura necesaria para que se sigan produciendo reacciones de fusión. La condición de ignición se escribe como Donde es la densidad de los iones, T su temperatura y ? E es el tiempo de confinamiento de la energía. Para alcanzar esta condición hay dos estrategias: Confinamiento inercial Departamento de Física de la Comunidad Europea (2005), define donde una diminuta cápsula de combustible se comprime mediante láser o haces de iones pesados a unas densidades 56 extremas (más de mil veces la densidad de un líquido). Las reacciones de fusión empiezan en su centro y se propagan hacia el exterior, donde el combustible está más frío. En este método, el tiempo de confinamiento es extremadamente corto, del orden del milisegundo. Confinamiento magnético Departamento de Física de la Comunidad Europea (2005) en el cual un plasma caliente se mantiene aislado de las paredes del reactor mediante campos magnéticos logrando densidades del orden de 1020 iones por m3 (105 veces inferior a la densidad de un gas en condiciones normales), en consecuencia el tiempo de confinamiento requerido es del orden del segundo. Este método es el más desarrollado y el que presenta mayores posibilidades de llegar a producir energía eléctrica. El confinamiento magnético se basa en que las partículas cargadas en presencia de un campo siguen un movimiento helicoidal a lo largo de las líneas de campo, evitando que el plasma oc upe todo el espacio disponible. Existen dos tipos de configuraciones: las abiertas y las cerradas. En las configuraciones abiertas las líneas de campo no se cierran sobre sí mismas y el plasma está confinado en un espacio finito por espejos magnéticos. Las configuraciones cerradas son de geometría toroidal, de forma que el plasma esta confinado en un volumen finito aunque las líneas de campo no tienen un límite. Para conseguir una configuración estable se necesita crear unas líneas de campo que giren e n forma de hélice alrededor del eje del toro. Dispositivos de confinamiento magnético: 57 2.2.3.1 Dispositivos tipo tokamak El término tokamak proviene del acrónimo de toroidalnya kamera y magnetnaya katushka que significa cámara toroidal y bobina magnética. El primer tokamak se desarrollo en la URSS a principios de los años 50 a partir concepto original de Andrei Sakharoz e Igor Tamm. Los éxitos obtenidos con el experimento T-3 a comienzos de los años 70 fue el origen de la expansión de los tokamaks en todo el mundo. Actualmente existen varios grandes tokamaks en el mundo como el JET de la UE, JT60 en Japón y TFTR de Estados Unidos (ya clausurado). Como se puede ver en la figura 7, en un tokamak mediante unas bobinas situadas a lo largo del toro (bobinas toroidales) se crea un campo magnético en la dirección del toro, y por medio de una corriente Ip inducida en el seno del plasma se genera un campo perpendicular al primero (dirección poloidal). Esta corriente se induce por las bobinas poloidales que actúan de circuito primario de un transformador mientras que el propio plasma es el circuito secundario. Las líneas de campo magnético resultantes son la combinación de estos dos campos (poloidal y toroidal) y tienen una forma helicoidal a lo largo del toro, de forma que las partículas pasan alternativamente por zonas exteriores e interiores del toro. 58 Figura 7. Esquema del funcionamiento de un tokamak. Fuente: DG-XII de la Unión Europea (2005) ¿Como lograr construir en la Tierra aparatos que semejan pequeños soles, donde la fusión nuclear se auto sostiene?, Debemos, entre otras muchas cosas, conseguir que en una región limitada del espacio un buen número de iones de deuterio choquen entre sí con la energía suficiente para que se fusionen. En el lenguaje de los plasmas, lo que deseamos es confinar un gas ionizado a muy alta temperatura. Esto se obtiene con campos magnéticos. Para entender por qué se ha diseñado el Tokamak de modo que semeje una inmensa dona, se debe recordar algunos conceptos básicos del movimiento de cargas dentro de campos magnéticos. He aquí algunos: si el campo magnético es muy grande, la dirección de la velocidad de la carga puede cambiar, pero su magnitud no; en otras palabras, la energía cinética de la partícula se conserva. Si el campo magnético es constante y uniforme, 59 las partículas se mueven a lo largo de una curva helicoidal cuyo eje está en la dirección del campo. Mientras más intenso sea, las partículas giran más rápidamente en órbitas de menor radio. Variando el campo magnético en posición perpendicular a el, para que las líneas de campo se enrollen en círculos, cuyo radio sea muy grande en comparación con las órbitas citadas anteriormente. La partícula cargada recorre ahora una hélice que se curva con el campo magnético, como si fuera un estambre enhebrado alrededor de las líneas del campo. Desde luego, mientras mayor sea la velocidad de las partículas, es decir; mientras más caliente esté el plasma, los campos magnéticos habrán de ser mayores para guiar a los iones. En el Tokamak se acomodan una serie de electroimanes anulares para formar una dona hueca, como se ve en la figura 8. Figura 8. Los electroimanes del Tokamack forman una dona hueca para confinar el plasma de alta temperatura. Fuente: DG-XII de la Unión Europea (2005) 60 En el interior de la dona se genera el plasma, cuyas partículas se ven forzadas a viajar en trayectorias helicoidales a lo largo de las líneas del campo magnético toroidal que han generado los electroimanes. Desgraciadamente, las partículas del plasma son muy caprichosas y tienden a escaparse del campo magnético, produciendo lenguas de plasma que evitan el confinamiento y producen inestabilidad. El mayor esfuerzo técnico y científico reside, en este momento, en evitar las inestabilidades del plasma. Schaltter (2004) menciona que para confinar plasmas muy calientes, resulta necesario que los campos magnéticos sean muy intensos. Las bobinas que los producen han de ser por tanto muy potentes. Las mejores que se conocen están construi das de material superconductor; cuya resistencia eléctrica se reduce enormemente si se le enfría a temperaturas muy bajas, del orden de -250 grados centígrados. Los campos magnéticos producidos por estos imanes superconductores son enormes, 100 000 veces más intensos que el campo magnético terrestre. Sin embargo, mantener frías estas bobinas agrega un problema técnico más: para evitar que dejen de ser superconductoras, las bobinas están hechas de alambres huecos por cuyo interior se hace circular helio líquido en grandes cantidades. ¡Un dolor de cabeza más! En los reactores Tokamak, el campo magnético se varía lentamente en el tiempo, subiendo y bajando de manera cíclica. Esto induce una corriente en el plasma, que así se calienta por efecto Joule, como el que actúa en una plancha eléctrica. 61 El plasma se comporta entonces como el secundario de un transformador de corriente directa y todo depende de esta corriente en el plasma. Ya que el campo magnético no puede ser elevado indefinidamente, la actividad nuclear se debe interrumpir cuando el campo magnético baja para reiniciar el ciclo, disminuyendo así la eficiencia del reactor de fusión. Para evitar esas interrupciones de las reacciones nucleares, y con ellas la pérdida en eficiencia del reactor; hoy se busca producir la corriente en el plasma por medio de un haz rasante de ondas de radiofrecuencia. En este método, el ímpetu de los fotones del haz se transmite a las partículas del plasma, forzando la corriente necesaria. El vaivén del campo magnético produce grandes tensiones sobre los alambres del embobinado. Éstas, que pueden llegar a ser de varias toneladas por centímetro cuadrado en campos magnéticos grandes y variables, producen fatiga mecánica en los materiales. El problema de resistencia de materiales que así se presenta no ha sido aún resuelto. También el diseño de la cámara que ha de contener el plasma presenta serios retos tecnológicos. La cámara debe mantenerse al vacío, para evitar la contaminación con aire, pues éste enfría el proceso. Además, la camisa que rodea la cámara debe soportar grandes temperaturas, sirviendo de aislamiento térmico entre plasma e imanes pues , como hemos dicho, estos últimos deben mantenerse muy fríos. Estas camisas han de recuperar la enorme energía proveniente del gran flujo de neutrones producidos en la 62 fusión. Deben servir; también, para intercambiar el calor producido en el plasma con un fluido que acarrea la energía térmica para utilizarla, por ejemplo, en mover una turbina y producir energía eléctrica. Por todo ello, el volumen interior de un reactor comercial necesita ocupar varios miles de metros cúbicos. Las paredes internas de la cámara del plasma se encuentran además sujetas a la fuerte irradiación de partículas cargadas que escapan al confinamiento. No obstante, el principal daño por radiación se debe al flujo de neutrones, que es enorme, cercano a 1013 neutrones/cm²·s. Por ello, al cabo de un año todos los átomos de la camisa han sido golpeados y desplazados de la red cristalina del sólido que la forma. En consecuencia, se debe cambiar la camisa cada dos o tres años. Como en los reactores de fisión, en los de fusión también existen problemas de seguridad radiológica. El de los desechos radiactivos es casi despreciable, si se compara con el de los reactores de fisión. El problema reside, más bien, en el gran volumen de tritio que se maneja en los reactores de fusión, que alcanza casi un kilogramo, lo que produce 1017 desintegraciones nucleares cada segundo. En efecto, como combustible del reactor de fusión se inyectan cristales fríos de deuterio y tritio a gran velocidad para que lleguen al interior del plasma. El proceso no es cien por ciento eficiente y el combustible debe ser recuperado bombeándolo por medio de lo sistemas de vacío. El gran flujo de neutrones hace necesario el uso de múltiples sistemas de blindaje. Como ya 63 dijimos, la camisa debe desmantelarse cada dos o tres años. El reactor mismo, al acabar su vida útil, que será tal vez de dos o tres decenios, también debe deshacerse. Todos los elementos que lo formaron podrían quedar radiactivos, con vidas medias tan largas como años, pues han sido activados por neutrones. A pesar de todo lo anterior; el problema de los desechos radiactivos es mucho menor que en los reactores de fisión actuales. Como se puede ver de esta breve descripción de un reactor caliente de fusión nuclear; los retos tecnológicos son gigantescos. No asombra, entonces, que en cuarenta años de investigación se hayan invertido más de cinco mil millones de dólares para conseguir un reactor de fusión nuclear eficiente y que este proceso de diseño aún no toque fin. Aunque esta línea de trabajo es la más avanzada y la más prometedora, debido a los altos costos y a la complejidad tecnológica se han explorado otros caminos para producir la fusión nuclear. De todos, la fusión fría es la vía más socorrida. 2.2.3.2 Dispositivos Tipo Stellarator Departamento de Física de la Comunidad Europea (2005) define que los stellarators son también dispositivos toroidales, pero a diferencia de los tokamaks el campo magnético poloidal no se genera a partir de la corriente del plasma sino únicamente por bobinas exteriores. La primera máquina de confinamiento magnético se basó en este concepto, pero debido a la complejidad de su diseño no consiguieron grandes resultados y fue abandonada debido a los buenos resultados obtenidos en los primeros tokamaks. 64 El hecho que no se consiguieran grandes avances con este tipo de dispositivos era debido a que en éstos las tolerancias de construcción son muy pequeñas. Una mínima desviación de construcción puede hacer que el plasma no se confine, ya que todos los campos magnéticos son creados por bobinas exteriores cuya geometría puede ser muy compleja. En un tokamak las tolerancias no son tan estrictas porque su diseño es más sencillo y porque además el campo poloidal lo crea el propio plasma. La principal ventaja de este tipo de dispositivos es su funcionamiento en continuo pues no hay ninguna corriente inductiva, esta característica hace que este concepto sea muy atractivo en vistas a la construcción de una central comercial. Otra ventaja de este concepto es que al carecer de corriente interna en el plasma evita el riesgo de disrupciones. A pesar que el desarrollo de estos dispositivos tiene un retraso respecto a los tokamaks, los actuales stellarators están dando resultados comparables a los obtenidos en tokamaks similares. 2.3. El Proyecto ITER proyecto ITER quiere decir (Internacional Tokamak Experimental Reactor) es un experimento que representa la ultima fase experimental de la construcción del primer reactor de fusión con fines comerciales. Proceso el cual se explica a continuación basado en los diagramas aportados por el centro DG-XII de la Unión Europea (2006): 65 1. Se toman dos elementos de núcleos ligeros. Figura 9. Proceso de Fusión Nuclear Fuente: Departamento de Física de la Comunidad Europea (2005) 2. Se calientan a una temperatura de cien millones de grados con el fin de que los núcleos cargados positivamente se acerquen lo suficiente para unirse. Figura 10. Proceso de Fusión Nuclear Fuente: Departamento de Física de la Comunidad Europea (2005) 3. En esta etapa el gas se encuentra en estado de plasma, los iones y los electrones forman un fluido microscópicamente neutro que no pueden estar en contacto con los elementos materiales. 66 Figura 11. Proceso de Fusión Nuclear Fuente: Departamento de Física de la Comunidad Europea (2005) 4. La energía calorífica que se desprenden de las reacciones se utilizará para crear calor de agua. Figura 12. Proceso de Fusión Nuclear Fuente: Departamento de Física de la Comunidad Europea (2005) 5. El reactor Tokamak es un diseño de confinamiento de plasma, en este punto, el plasma se calienta y se mantiene confinado en una cámara de vació con forma toroidal. Para aislar el plasma se aísla mediante campos magnéticos mediante componentes internos descritos a continuación. 67 Componentes: a. El solenoide central es el superconductor el cual induce la corriente eléctrica en el plasma. Se encuentra dentro de el la bobina que tiene un peso de 840Tn y mide 12m de alto y 4 m de diámetro. Figura 13. Reactor Tokamak Componentes del ITER Selenoide Central Fuente: Departamento de Física de la Comunidad Europea (2005) El celonoide central esta conformado a su vez por: I. Criostato: cuya función es de mantener los imanes aislados térmicamente y sirve de segunda barrera de confinamiento después de la vasija de vació. Sus paredes son de acero inoxidable de 50mm de grosor. Figura 14. Reactor Tokamak Componentes del ITER Selenoide Central Fuente: Departamento de Física de la Comunidad Europea (2005) 68 II. Vasija de Vació: su función es de absorber la energía el flujo del plasma a niveles tolerables para los imanes y el equipo circulante. Este permite una alta calidad de vacío, desviando el helio y las impurezas provenientes de fusión. De igual forma sirve de defensa de primera línea de perdida de refrigerantes y materiales radiactivos. Figura 15. Reactor Tokamak Componentes del ITER Selenoide Central Fuente: Departamento de Física de la Comunidad Europea (2005) III. El Divertor concentra la interacción de las partículas cargadas con los materiales que rodean el plasma, su principal función es soportar el gran flujo de energía de estas partículas y eliminar el helio resultante de las reacciones de fusión y otras impurezas. Figura 16. Reactor Tokamak Componentes del ITER, Selenoide Central Fuente: Departamento de Física de la Comunidad Europea (2005) 69 b. Alrededor del Selenoide Central se encuentran 18 bobina superconductoras del campo toroidal, se encargan de confinar y estabilizar el plasma, cada una de ellas pesa 290Tn, miden 14m de alto y 9m de ancho. Figura 17. Reactor Tokamak Componentes del ITER, Bobina Toroidal Fuente: Departamento de Física de la Comunidad Europea (2005) c. Dentro de la bobina toroidal se encuentra la cámara de vació donde se mantiene en vacío el plasma y es la primera barrera de confinamiento para el tritio y materiales activados que se encuentran en su interior Figura 18. Reactor Tokamak Componentes del ITER, Cámara de Vacío Fuente: Departamento de Física de la Comunidad Europea (2005) 70 Campos Magnéticos: a. El Campo coloidal es producido por una corriente eléctrica que fluye en el interior del plasma inducido principalmente por el selenoide central. Figura 19. Reactor Tokamak Componentes del ITER, Campos Magnéticos Fuente: Departamento de Física de la Comunidad Europea (2005) b. El Campo Toroidal los conforman las bobinas equidistantes que se encuentran alrededor del toroide Figura 20. Reactor Tokamak Componentes del ITER, Campos Magnéticos Fuente: Departamento de Física de la Comunidad Europea (2005) 71 c. El Campo Helicoidal es el campo resultante de la suma de los campos Coloidal y Toroidal. Figura 21. Reactor Tokamak Componentes del ITER, Campos Magnéticos Fuente: Departamento de Física de la Comunidad Europea (2005) 6. Para el funcionamiento del reactor Tokamak se debe cumplir las siguientes condiciones: a. La temperatura se debe producir a ritmo suficiente a más de cien millones de Grados Centígrados y debe confinarse con el fin de que la temperatura se mantenga. b. El confinamiento magnético debe ser eficiente con el fin de evitar enfriamientos. Este tipo de confinamiento de plasma mediante confinamiento magnético se mide mediante el tiempo de confinamiento de la energía. c. La densidad de los iones del combustible debe ser lo suficientemente elevada para que las reacciones de fusión se produzcan al ritmo requerido. está La potencia contaminado por se ve impurezas reducida liberadas si el por combustible el material 72 circulante o por acumulaciones de “cenizas” de helio. Es por esto que se deben remplazar los iones por otros nuevos y extraer las cenizas del helio. El proyecto piloto ITER con base en Francia, se basa especialmente en la obtención explicadas Tokamak del deuterio anteriormente para lograr de y triíto del esta pasando por confinamiento forma una todas la etapas magnético fuente confiable del de energía limpia. 2.4. Patentes Considerando la definición indicada por la Organización Mundial de la Propiedad intelectual (OMPI), una patente es “Un derecho Exclusivo concedido a una invención, que es el producto o proceso que ofrece una nueva manera de hacer algo, o una nueva solución técnica a un problema”. Según la OMPI la protección de una patente significa que la invención no puede ser confeccionada, utilizada, distribuida o vendida comercialmente sin el consentimiento del titular de la patente. Los derechos de patentes generalmente son definidos en los tribunales que, en la mayoría de los sistemas, tiene la potestad de sancionar las infracciones a las patentes. La función primordial de la patente es proteger las invenciones. Para poder realizarla, han de ser publicadas y estar disponibles al público. Sin embargo, las patentes, no solo contienen soluciones a los problemas técnicos si no que también son una fuente inestimables de información tecnológica. 73 De hecho, más del 80% del conocimiento técnico del mundo se encuentran contenido en las patentes. Para otorgar una patente, en primer lugar se debe presentar una solicitud la cual contiene por lo general, el titulo de la invención, así como una indicación sobre su ámbito técnico; a subes como los antecedentes y una descripción de la invención, en un lenguaje claro y con los detalles suficiente para que una persona con un conocimiento medio del ámbito en cuestión pueda utilizar o reproducir la invención. La Solicitud contiene así mismo varias “Reindivicaciones” es decir, información que determina el alcance de protección que concede la patente. Posteriormente al análisis para determinar si la solicitud de la patente es realmente innovadora, es útil y si cumple con los requisitos legales establecidos para el otorgamiento de la propiedad, en caso de ser positivo, el inventor obtiene un número y fecha de asignaciones de la patente, es decir, la patente es concedida. 3. Definición de Términos Básicos Muones: Moore (1990) Los define como partículas elemental de la familia del electrón. Estos no aparecen como constituyentes de la materia como los electrones, pues son partículas inestables que tienen un tiempo de vida muy corto, y por lo tanto decaen poco después de haberse formado. El muon aparece al decaer otra partícula subnuclear llamada pion o mesón, se encuentran de manera natural en los rayos cósmicos secundarios sobre todo a nivel del mar, pues interactúan muy poco con la materia, y 74 pueden atravesar toda la atmósfera sin perderse. También pueden crearse artificialmente haciendo chocar un haz de iones energéticos con un material cualquiera. Pion: es la partícula que transmite las fuerzas nucleares de un nucleón a otro, en forma semejante a como los fotones transmiten las fuerzas electromagnéticas. Como partícula libre decae rápidamente, dando lugar a un muon Departamento de Física de la Comunidad Europea (2005). Innovación Tecnológica: Escobar (2000) define el proceso de Innovación Tecnológica como el conjunto de actividades científicas, tecno lógicas, financieras y comerciales que permiten: Introducir nuevos o mejorados productos en el mercado nacional o extranjero (ejemplos: medicamentos, equipos, dispositivos médicos, diagnosticadores; y de productores: LABEX, IMEFA, CIDEM, CQF, etc.). Introducir nuevos o mejorados servicios (ejemplos: nuevos servicios quirúrgicos, preventivos, de atención estomatológica, PPU). Implantar nuevos o mejorados procesos productivos o procedimientos (ejemplos: medicoquirúrgicos, docente -educativos, informativos y de automatización). Introducir y validar nuevas o mejoradas técnicas de gerencia y sistemas organizacionales con los que se presta atención sanitaria y que se aplican en nuestras fábricas y empresas. Por tanto, la innovación tecnológica es la que comprende los nuevos productos y procesos y los cambios significativos, desde el punto de vista 75 tecnológico, en productos y procesos. Se entiende que se ha aplicado una innovación cuando se ha puesto en el mercado (innovación de productos) o se ha utilizado en un proceso de producción (innovación de procesos). Fusión: La fusión nuclear se basa en la energía que se libera de la unión entre los átomos. Concretamente en la fusión intervienen dos isótopos del hidrógeno: el tritio y el deuterio. Se utilizan estos isótopos pues para que se produzca la fusión de los átomos -su unión- es necesario que sus núcleos tengan la mínima fuerza de repulsión, y esto se logra precisamente con los átomos más ligeros, los de hidrógeno, que sólo tienen un protón en su núcleo. En la fisión se requiere todo lo contrario, que los núcleos tengan la máxima repulsión posible, lo que consigue con átomos con muchos protones Nichos de Mercado: el Diccionario de Marketing, 1999 (p.230), define nicho de mercado como la fracción de un segmento de mercado que puede ser usado como el público objetivo para la promoción de un producto determinado. Por su parte, Ostertag (2000) sostiene que el mercado no solo se puede dividir en segmentos, sino también en nichos y en última instancia en individuos. En la medida en que una empresa vendedora subdivide un mercado al identificar características más singulares, los segmentos tienden a convertirse en un conjunto de nichos. Los clientes que constituyen el nicho tienen un conjunto de necesidades, en alguna medida, singular y complejo; están dispuestos a pagar una prima a aquella empresa que mejor satisfaga 76 sus necesidades, si pretende obtener el éxito, el mercadeó logo especializado en nichos tendrá que especializa r sus operaciones; y para otros competidores no resulta fácil atacar al líder del nicho” Proyecto: se define como un conjunto ordenado de acciones que tienden a la realización de un determinado fin. Por consiguiente un proyecto lleva consigo un inicio y un fin que se alcanza cuando todas las actividades que lo constituyen han sido completadas. (Cartay. 1995). En el presente trabajo de investigación se trabaja con un proyecto de tipo tecnológico. 4. Definición Conceptual y Operacional de las Categorías En la presente investigación las categorías de análisis del estudio fueron cuatro (04), Tendencias Tecnológicas, Madurez Tecnológica, Oportunidad de Negocio y Formulación del Portafolio. La conceptualización de las categorías se refiere a cómo desea el investigador que se interprete las categorías que investiga; y la operacionalización de las mismas. Se define directamente como se medirán las variables en términos de las subcategorías y elementos de análisis que la conforman. 4.1. Categoría: Tendencias Tecnológicas Definición conceptual: esta categoría se define como los “estados probables en la evolución de una tecnología a lo largo del tiempo” (Alfonzo y otros, 2002). 77 Definición operacional: esta categoría se concibe como la orientación de la tecnología respecto al campo de conocimiento al que se direccionan sus aplicaciones, uso de los trabajos patentados y el grado de madurez y dominio tecnológico, todo esto fundamentado en trabajos patentados e investigaciones. 4.2. Categoría: Oportunidades de Negocios Definición conceptual: esta categoría se define como la “conveniencia en tiempo y en lugar para ejecutar una actividad que posee fin como obtener una ganancia, lucro, interés o utilidad” (Torres, 1993, p.99). Definición operacional: son las diferentes alternativas que se abren en el mercado sobre la base de las tendencias tecnológicas en el área de la fusión nuclear y sus aplicaciones, las cuales se orientan a nuevos nichos de mercado, brechas tecnológicas, avances, y desarrollos específicos con el objeto de satisfacer necesidades desde un punto de vista gerencial y operacional con el fin de obtener beneficios económicos. 4.3. Categoría: Madurez Tecnológica. Se define como madurez tecnológica al grado de dominio y desarrollo que se encuentra el área de estudio. 78 4.4. Categoría: Portafolio de Oportunidades. El Portafolio de Oportunidades es componente esencial de la planificación estratégica. La planificación estratégica dirige la continua viabilidad de la estrategia para mantener la empresa competitiva y sobreviviendo en el mercado, asimismo, sondea las necesidades de cambio. Dentro de este contexto, el portafolio de oportunidades juega un papel importante ya que de allí se toman las oportunidades tecnológicas que formarán parte del plan de negocios tecnológico de la empresa, del cual dependerá la competitividad y sobrevivencia futura de la empresa y por ende la creación de valor. Las categorías, subcategorías y elementos de análisis, se presentan a continuación en la Tabla 4. Tabla 4. Categorías y Subcategorías de Análisis . Categorías Tendencias Tecnológicas Madurez Tecnológica Subcategorías Innovación Tecnológica Nivel de Madurez de la Tecnológica Nivel de Dominio de la Tecnología Elementos de análisis Fecha de Publicación de la patente Utilidad y Campo de aplicación de las Patentes Campo de Conocimiento a la que se asocia la Patente Embrionaria Comercial Madura Incipiente Masivo Dominio 79 Cont. Tabla 4 Categorías Subcategorías Elementos de análisis Importancia Urgencia Análisis de impacto Riesgo Creación de valor Baja Baja media Análisis de Brechas Media Media alta Alta Oportunidades Madurez Madurez Tecnológica de Negocio Tecnológicas de las Oportunidades de Penetración del Mercado Negocio Posicionamiento Tecnológico Formulación Elaboración del del Portafolio Portafolio Fuente: Gutiérrez (2007) Ejecutar Proyecto Tecnológico Invertir en Investigación y Desarrollo Transferir/Masificar Materializar Alianzas Tecnológicas Se logra con los anteriores