7-feb-07 MODULO INTRODUCCIÓN A LA INGENIERÍA ELECTRÓNICA MARCOS GONZÁLEZ PIMENTEL UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD BOGOTA 2006 1 ÍNDICE PRIMERA UNIDAD FUNDAMENTACIÓN DE LA INGENIERÍA ELECTRÓNICA CAPÍTULOS 0. INTRODUCCIÓN. CAPÍTULOS 1 CONCEPTUALIZACIÓN 1.1 CIENCIA 1.1.1 Definición 1.1.2 Objetivos 1.1.3 Características básicas de la ciencia. 1.1.4 Ciencia y tecnología 1.1.5 Tipos de Ciencia 1.2 1.2.1 1.2.2 1.2.3 1.2.4 Ingeniería y Tecnología Definición de Ingeniería Funciones de la Ingenieria Ramas de la Ingeniería Definición de Tecnología 1.3 Ingeniería y Tecnología Electrónica 1.3.1 Definición 1.3.2 Objetivos 1.4 Sistema 1.4.1 Definición 1.4.2 Características y clases de los sistemas CAPITULO 2 ANTECEDENTES 2.1 Historia de la Ingeniería 2.1.1. Historia de la Ingeniería en el mundo 2.1.2. Historia de la ingeniería en Colombia. 2.2 Historia de la electrónica 2.2.1. Historia de la electrónica en el mundo. 2.2.2. Historia de la electrónica en Colombia. CAPITULO 3 ACTUALIDAD 2 3.1 Actualidad de la Ingeniería. 3.1.1 Actualidad de la Ingeniería el mundo. 3.1.2 Actualidad de la Ingeniería en Colombia. 3.2 Actualidad de la electrónica 3.2.1 La Electrónica en el mundo. 3.2.2 La Electrónica en Colombia CAPITULO 4 APLICACIONES 4.1 Industriales. 4.1.1 Definición 4.1.2 Estado del arte. 4.2 Robótica. 4.2.1 Definición 4.2.2 Estado del arte. 4.3 Automatización. 4.3.1 Definición 4.3.2 Estado del arte. 4.4 Comunicaciones. 4.4.1 Definición. 4.4.2 Estado del arte Electromedicina. 4.5 4.5.1 Definición 4.5.2 Estado del arte. CAPITULO 5 DISEÑO 5.1 DEFINICIÓN DE ANÁLISIS Y SÍNTESIS. 5.2 MÉTODO DEL DISEÑO EN INGENIERÍA. SEGUNDA UNIDAD INGENIERÍA ELECTRÓNICA CAPITULO 6 CONCEPTOS 6.1 CONCEPTOS FÍSICOS 6.1.1 Carga eléctrica 6.1. 2 Ley de Coulomb 6.1.3 Corriente 6.1.4 Voltaje 6.1.5 Ley de OHM 3 6.2. CONCEPTOS ELECTRÓNICOS 6.2.1 Circuito. 6.2.2 Reglas de Kirchhoff 6.2.3 Fuentes 6.2.4 Frecuencia (F) 6.2.5 Periodo (T) 6.2.6 Semiconductores CAPITULO 7 ELEMENTOS 7.1 7.1.1 7.1.2 7.1.3 7.1.4 7.1.5 7.1.6 ELEMENTOS BÁSICOS Resistencias Diodos Condensadores Inductores Transistores Amplificadores 7.2 7.2.1 7.2.2 7.2.3 INTEGRADOS Compuertas Microelectrónica Microprocesadores 7.3 7.3.1 7.3.2 7.3.4 SISTEMAS EMBEBIDOS FPGA FPAA Convertidores A/D 7.4 7.4.1 7.4.2 7.4.3 OPTOELECTRÓNICA LED Fotodetectores Fibra Óptica 4 CAPITULO 0. INTRODUCCIÓN El curso de Introducción a la Ingeniería de Electrónica, es de tipo teórico y corresponde al campo de formación profesional básica de los programas de Ingeniería Electrónica y Tecnología en Electrónica, su metodología es educación a distancia. Corresponde a dos (2) créditos académicos los cuales comprenden: Estudio y discusión de algunos temas relacionados con la función del ingeniero y su perfil profesional. Estudio de los conceptos básicos de la ingeniería Electrónica. También se aré un acompañamiento en tutorías desarrolladas en pequeños grupos de colaboración y la tutoría en grupo de curso, el cual sirve de apoyo al estudiante para potenciar el aprendizaje autónomo y su formación en el campo de aplicación de la temática a desarrollar. El tutor juega el papel de acompañante en el proceso de aprendizaje, no sólo imparte conocimientos, sino que brinda orientación en la selección y aplicación de estrategias propias del modelo de educación a distancia. Por ello el desarrollo del curso académico contempla espacios de reflexión en los que el tutor valora al estudiante como un conjunto de pensamientos, conocimientos, habilidades y experiencias y permite que aplique los conceptos adquiridos, en la solución de problemas, estimulando al estudiante a que vea su aprendizaje por procesos y no por resultados. Este curso está compuesto por dos unidades didácticas a saber: Unidad 1. Fundamentos de Ingeniería Electrónica: Aquí se establecen los conceptos de Ciencia, Ingeniería, tecnología y en especial Ingeniería Electrónica. Se establece un panorama general de la evolución, aplicación y proyección de la ingeniería Electrónica como función principal del Ingeniero, el diseño de soluciones y la investigación aplicada. Se hace una reseña histórica y luego se entra a discutir algunas aplicaciones concretas de la Ingeniería Electrónica. 5 El capítulo V está dedicado a una de las principales funciones de la Ingeniería que es el Diseño. Comienza por definir Análisis y Síntesis dentro del contexto de la ingeniería, luego habla del modelado, sus herramientas y las motivaciones del Diseño. Por ultimo da una introducción a algunos procedimientos que se siguen dentro del diseño. Unidad 2. Ingeniería Electrónica. En esta Unidad se dan conceptos básicos que se manejan en Ingeniería Electrónica, esto permite que el estudiante se forme una idea global de la Ingeniería y le permita ubicar los diferentes temas que vera durante el transcurso de su carrera. El curso es de carácter teórico y su desarrollo se hará mediante el estudio de artículos y modulo, se desarrollaran algunas tareas en grupo que faciliten la discusión, de temas específicos, entre los alumnos, de tal forma que se estimulen las competencias del estudiante y se potencien sus habilidades orientadas básicamente al análisis y solución de problemas. Con éste curso académico el estudiante tiene la posibilidad de conocer e interpretar el desarrollo histórico de la Ingeniería Electrónica, los objetivos, funciones e interrelaciones de ésta disciplina con otros campos del saber; comenzar a familiarizarse con los conceptos generales de la Ingeniería Electrónica, sus dispositivos, aplicaciones y herramientas. 6 PRIMERA UNIDAD DIDÁCTICA FUNDAMENTACIÓN DE LA INGENIERÍA ELECTRÓNICA CAPÍTULO 1. CONCEPTUALIZACIÓN 1.1 Ciencia La definición de ciencia es un concepto amplio y se podría dar de diversas formas, dependiendo de la disciplina desde la cual se trabaja. La siguiente es la definición que da la Real Academia Española RAE. 1.1.1 Definición1 ciencia. (Del lat. scientĭa). 1. f. Conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales. 2. f. Saber o erudición. Tener mucha, o poca, ciencia. Ser un pozo de ciencia. Hombre de ciencia y virtud . 3. f. Habilidad, maestría, conjunto de conocimientos en cualquier cosa. La ciencia del caco, del palaciego, del hombre vividor. 4. f. pl. Conjunto de conocimientos relativos a las ciencias exactas, fisicoquímicas y naturales. Facultad de Ciencias, a diferencia de Facultad de Letras. ~ ficción. 1. f. Género de obras literarias o cinematográficas, cuyo contenido se basa en hipotéticos logros científicos y técnicos del futuro. ~ pura. 1. f. Estudio de los fenómenos naturales y otros aspectos del saber por sí mismos, sin tener en cuenta sus aplicaciones. ~s exactas. 1. f. pl. matemáticas. ~s humanas. 1. f. pl. Las que, como la psicología, antropología, sociología, historia, filosofía, etc., se ocupan de aspectos del hombre no estudiados en las ciencias naturales. ~s naturales. 1 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es. 7 1. f. pl. Las que tienen por objeto el estudio de la naturaleza, como la geología, la botánica, la zoología, etc. A veces se incluyen la física, la química, etc. ~s ocultas. 1. f. pl. Conocimientos y prácticas misteriosos, como la magia, la alquimia, la astrología, etc., que, desde la antigüedad, pretenden penetrar y dominar los secretos de la naturaleza. Ciencias humanas. La Ciencia2 es un significativo elemento de la cultura, que le ha permitido al hombre diferenciarse de los animales, que no producen cultura. El hombre gracias a las mediciones de la misma ciencia, ha transformado el mundo, lo ha explicado y lo ha comprendido partiendo de la variedad de fenómenos y comprendiendo las leyes que lo rigen. El hombre no ha podido deslindar la realidad y el conocimiento porque el conocimiento ha contribuido a modificar esa realidad, al mismo tiempo, la realidad actúa sobre el sujeto modificando el conocimiento. Este acercamiento al concepto de ciencia la considera como una forma de conocimiento humano. El conocimiento científico, no es la única forma de acercarse a la realidad y no agota la misma realidad. Esta es compleja y trasciende el conocimiento científico; no la podemos reducir simplemente a lo racional o a lo experimental, va más allá; no se agota con lo demostrable y lo cuantificable. La realidad es también trascendente y por ello va más allá de lo científico. Algunos pretenden aceptar únicamente, la realidad que percibe la ciencia negando su trascendencia y queriendo agotarla en el conocimiento científico. 1.1.2. Objetivos La ciencia también se define, a partir de su objetivo, como la búsqueda del conocimiento de la realidad o como el conocimiento racional, sistemático, exacto y comprobable de la realidad. La ciencia experimenta, descubre, observa, mide, crea teorías que explican el cómo y por qué de las cosas; elabora técnicas y herramientas para su observación y medición; hace hipótesis y cuestiona la naturaleza y sus fenómenos; crea conjeturas, discute o rechaza; separa lo verdadero de lo falso, diferencia lo que tiene sentido de lo que no lo tiene; nos dice como debemos llegar a donde queremos llegar y lo que queremos hacer. 1.1.3. Características básicas de la ciencia. Tomando como punto de partida a Mario Bunge; las características principales se pueden definir así: 2 FLOREZ Carlos, GALINDO Gladis, Ciencia y Conocimiento, Usta, Santafé de Bogotá. 1971. p 251. 8 Facticidad: Significa que la ciencia parte de los hechos, tratando de ser independiente a cualquier tipo de valoración o caracterización emocional o sentimental. La estadística le sirva a la ciencia como un instrumento que le permite sistematizar y cuantificar estos hechos observables. A las teorías que se forman a partir de los hechos que han sido confirmados, se les da el nombre de datos empíricos. Análisis: La ciencia es analítica, porque los problemas que trata de resolver, son descompuestos en sus elementos para entender y descubrir la forma como se relacionan estos con el fenómeno que se esta investigando. Claridad y precisión: La ciencia se diferencia del conocimiento vulgar o corriente del hombre, el cual, por lo general, es vago e inexacto. El conocimiento científico por el contrario, exigen cierta tranquilidad y reposo para abordar los problemas y para poder penetrar en sus leyes y mecanismos internos. La ciencia, en su proceso investigativo, debe ante todo precisar y clarificar su problema. El planteamiento del problema con claridad y precisión asegura, un alto porcentaje, la validez y orientación de la investigación científica, el marco teórico ayuda a la clarificación y exactitud de la investigación, pues la teoría como marco de referencia, permitirá iluminar el problema para entenderlo y clarificarlo. Verificabilidad: La ciencia no se puede contentar exclusivamente en la coherencia lógica de sus afirmaciones; la observación de los fenómenos tampoco es suficiente, por más precisión y utilización de instrumentos perfeccionados que tenga. Es necesario introducir la experimentación para verificar en la realidad sus teorías. La verificabilidad del conocimiento científico fue uno de los aportes que hicieron los griegos a este, especialmente la escuela de Pitágoras. Esta verificación o comprobación permite crear situaciones controladas en donde se pueden cambiar las variables o factores que intervienen en los fenómenos para conocer mejor sus interrelaciones. Sistematicidad: La ciencia es sistemática, organizada en su búsqueda y en sus resultados. Se preocupa por construir sistemas de ideas organizados racionalmente, formando una estructura a la que integra conocimientos nuevos a los ya existentes; así las leyes y teorías se van ampliando una teoría más general. La sistematicidad implica un todo donde sus elementos se encuentran interrelacionados entre sí con una finalidad o un objetivo. Generalidad: Desde épocas primitivas el conocimiento científico ha tenido un carácter general. No puede existir ciencia de lo particular, lo afirman los filósofos griegos, porque no hay interés por el objeto en particular, por el hecho en si mismo, sino por lo que puede representar para la generalidad de los fenómenos u objetos. El estudio de un caso particular tiene sentido para el científico, en la medida que le permite relacionarlo con una ley que es general, es decir un caso 9 de una ley y la ley se convierte en una expresión racional de la generalización de los casos particulares. Falibilidad: La ciencia es uno de los pocos sistemas creados por el hombre que parte del principio de su posibilidad de equivocarse, de cometer errores. Por principio la ciencia es refutable, es falible. Siempre que exista la posibilidad de encontrar nuevos hechos o hipótesis que generan una mejor explicación de los fenómenos se hace alusión a la falibilidad de la ciencia. Explicabilidad Y Productibilidad: La ciencia le da al hombre explicaciones coherentes y sistemáticas acerca del modo de comportamiento de la naturaleza y de la sociedad. Así no solo describe los fenómenos sino que los explica y señala la forma como se relaciona los elementos del fenómeno. La ciencia busca su utilización en el mejoramiento de la vida y por ello ha sido predictiva anticipándose a los hechos para manejarlos. Utilidad: La característica que reviste mayor importancia para la humanidad es la utilidad. La ciencia otorga las herramientas y los instrumentos para ser utilizados para la destrucción o realización del hombre. Aquí una cantidad de discursos en el mundo actual que enmarcan una orientación de la tecnología, aplicación de la ciencia a la solución de necesidades concretas del hombre, claro esta enmarca en una gran responsabilidad ante la historia de la humanidad. Todo depende de la forma como es utilizada la ciencia en beneficio o perjuicio de la humanidad. Solo entendiendo una real libertad se podrá comprender la acción de la ciencia para el desarrollo de la humanidad. 1.1.4 Ciencia y tecnología En el mundo actual existe una estrecha interrelación entre ciencia, tecnología y sociedad. La Ciencia y la tecnología son particularmente importantes para el desarrollo de los mismos pueblos. La ciencia y la tecnología han suscitado cambios en el modo de vida en el bienestar y en la misma manera de comportarse las personas que son aspectos básicos en el desarrollo de la sociedad. Con el propósito de realizar tanto la relación, como la diferenciación entre los conceptos de TÉCNICA CIENCIA, TECNOLOGÍA; se parte del principio en el que concuerdan en dos aspectos comunes como lo son: hacer referencia a algo objetivo, existente y de otro lado hacen relación a una actividad humana y, en ese sentido son algo subjetivo, cambiante por naturaleza, en constante evolución social. Pero al igual se da la diferenciación se enmarca dentro los objetivos que persiguen: La técnica y la tecnología buscan la forma de hacer las cosas para la satisfacción de las necesidades humanas y la ciencia pretende entender la naturaleza y la sociedad. La tecnología y la técnica pretenden producir bienes y ofrecer servicios. 10 Sintetizando, podemos afirmar que la Ciencia hace referencia al SABER, la técnica a la HABILIDAD para hacer algo y esto se ha generado a través de la misma historia del hombre, desde sus inicios, hasta la misma revolución científica técnica que ha desarrollado:3 LOS INICIOS: El hombre comenzó a dominar técnicas como el uso del fuego, de la rueda, domesticar animales, hacer herramientas, fundir, cultivar, construir y a tener conocimientos del calendario, de las matemáticas, etc. EL PERÍODO HELENICO: Comienza la búsqueda del conocimiento por el conocimiento mismo, se quieren saber los rasgos esenciales de las cosas, sus causas, las leyes que las rigen. La “Ciencia” era actividad del hombre rico e instruido. LA EDAD MEDIA: El conocer se supedita al creer, a la fe. Se limita la creatividad del hombre. Pero se avanza en el dominio de las artesanías. LA REVOLUCIÓN CIENTÍFICA: Se regresa al estudio directo de la naturaleza. Surge el método experimental. Época de grandes teorías, descubrimiento de leyes que rigen a la realidad. La actividad científica comienza a institucionalizarse. LA REVOLUCIÓN INDUSTRIAL: La producción a gran escala estimula el desarrollo de técnicas avanzadas, comienza el uso de máquinas, como la de vapor, para aplicarlas a la producción, al transporte, etc. Es la época de la revolución técnica. LA REVOLUCIÓN CIENTÍFICA – TÉCNICA: Gran desarrollo de las ciencias particulares. Sus principios se aplican a la industria. Estrecha relación entre ciencia, tecnología y desarrollo. La ciencia se convierte en un importante factor de desarrollo de las fuerzas productivas. 1.1.5 Tipos de ciencia Existen diversas formas de acercarse a la ciencia, la básica y la aplicada y ambas distintas de la tecnología y entre las dos diferenciadas por el grado de especificidad. La ciencia básica expresa correlaciones que son válidas para la totalidad de un universo de discurso y la ciencia aplicada que es más específica se restringe de la aplicabilidad de las correlaciones. Cuando las correlaciones de la ciencia aplicada provienen por vía deductiva de leyes de ciencia básica y de datos, se dice que la ciencia aplicada corresponde a una ciencia teórica.4 3 4 FACUNDO D, H Ángel, Ciencia tecnología e investigación, ICFES, Bogotá... p 18. HESSEN, J; Teoría Del conocimiento, Losada, Bs As; 1970. Pg 345 11 CIENCIA BÁSICA TEÓRICA: Es una construcción conceptual que, luego de la materialización de la ciencia moderna, puede expresarse por medio de diversas ecuaciones simples. CIENCIA APLICADA TEÓRICA: Se distingue de la básica, porque sus correlaciones son de más corto alcance. También porque ésta restricción, lleva a una aplicabilidad mas inmediata en un ámbito específico y real. Se expresa en ecuaciones, donde intervienen parámetros y son características de la denominada ciencia aplicada. Cuando la correlación proviene de la ciencia básica y se restringe con la realidad de los datos, a la ciencia que la aplica se le llama ciencia aplicada teórica. CIENCIA APLICADA EMPÍRICA: Sus correlaciones son descripciones de realidades observadas, las cuales se consideran científicas por su modo de obtención, procesamiento y presentación; por su comprobación y necesidad de refutación y por la vía de los conceptos que en ella intervienen, con alguna porción de ciencia, básica teórica. Las correlaciones se expresan en forma matemática, pero no pueden deducirse de otras leyes de la ciencia básica, además en sentido estricto no son leyes, solo son expresiones matemáticas que describen hechos observados. 1.2 INGENIERÍA Y TECNOLOGÍA 1.2.1 Definición de Ingeniería5 1. f. Estudio y aplicación, por especialistas, de las diversas ramas de la tecnología. 2. f. Actividad profesional del ingeniero. Otra definicion Si retomamos el concepto de ingeniería orientada al campo ocupacional, se concreta en la aplicación del conocimiento de las ciencias naturales, mediada por los métodos tecnológicos y las destrezas técnicas, para: Aprovechar adecuadamente los recursos energéticos; transformar las materias y los materiales; proteger y preservar el ambiente; producir, reproducir y manejar información; gestionar, planear y organizar los talentos humanos y los recursos financieros para el beneficio de la humanidad; mediante el diseño de soluciones creativas y la utilización de las herramientas disponibles. 1.2.2. Funciones de la ingeniería. El trabajo del ingeniero le ha exigido especializarse por ramas y a la vez orientarse hacia funciones encaminadas a:6 5 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006. http://www.rae.es. 12 INVESTIGACIÓN; reconociendo y definiendo las necesidades reales. Búsqueda experimental del conocimiento. Suministro e información ingenieril a las otras funciones. Principios científicos y datos sobre los eventos ingenieriles recién descubiertos. DESARROLLO; Aplicación tecnológico del conocimiento básico de la ingeniería. Determinación de problemas de aplicaciones y sus soluciones. DISEÑO: Reconocimiento y definición de necesidades tecnológicas y establecimientos de alternativas de solución. Selección de alternativas y presentación de la solución propuesta. CONSTRUCCIÓN Y PRODUCCIÓN; Materialización y realización física de los diseños control de calidad y análisis de costos. OPERACIÓN Y ENSAYO; planeación, selección, instalación, y ensayo de plantas, sistemas y máquinas. Determinación de la duración de máquinas y equipos de su rendimiento. MANTENIMIENTO Y SERVICIO; mantenimiento y reparación de las plantas, sistemas, máquinas y productos. MERCADEO; del posicionamiento. producto, empaque ADMINISTRACIÓN; decisiones finales en el parcialmente accesoria. y almacenamiento, publicidad, trabajo final de la ingeniería y EDUCACIÓN; enseñanza y publicaciones generales y especializadas. 1.2.3. Ramas e la ingeniería Los cuatro grandes campos de la ingeniería son la civil, mecánica, la eléctrica y la química. A partir de estas se han desarrollado otras ramas de gran interés en el desarrollo de la misma ciencia y la tecnología. 7 1.2.3.1 Ingeniería Civil: Es la rama más antigua de la profesión del ingeniero, después de la militar. El ingeniero civil agrupa su trabajo en construcción, ambiental, geotécnica, recursos hídricos, topografía, estructural, y transporte. 6 DIXON, JOHR; Diseño en Ingeniería, inventiva, análisis y toma decisiones. Limusa. Wiley. México. 1970. HOYOS VASQUEZ, Guillermo; Elementos para la comprensión de la Ciencia y la Tecnología. Colombia al despertar de la modernidad; Ediciones Foro. Bogotá 1994. Pg 23 7 13 Los ingenieros civiles realizan estudio de factibilidad, investigaciones de campo y diseño, las que se ejecutan durante la construcción y las que realizan después de la construcción como el mantenimiento e investigación. 1.2.3.2 Ingeniería Mecánica: Los ingenieros mecánicos se relacionan con la mecánica de la energía, la manufacturera y la del diseño. Sus funciones incluyen el diseño y especificación de componentes o sistemas enteros, el diseño y producción de los procesos de manufacturas, la operación y mantenimiento de plantas, la consultoría, la investigación y desarrollo junto a la administración. Aplica el método ingenieril, leyes y principios, desarrollados por científicos, especialmente los físicos. 1.2.3.3 Ingeniería Eléctrica: La ingeniería eléctrica maneja fundamentalmente la generación, transmisión y distribución de energía, fabricación de equipos eléctricos, e instalaciones y mantenimiento de plantas industriales, empresas contratistas de prestación de servicios relacionados con los montajes, redes e instalaciones eléctricas en general. El Ingeniero electricista posee conocimientos técnicos, habilidades, destrezas y valores para encarar el diseño, construcción y administración, operación de procesos, productos, equipos y materiales en el campo eléctrico. Las funciones típicas de los ingenieros electricistas incluyen el diseño de nuevos productos, la prescripción de requerimientos de desempeño, el desarrollo de esquemas de mantenimiento. Resuelven problemas operativos, estiman el tiempo y el costo de los proyectos de ingeniería eléctrica y llevan a cabo la consultoría, la investigación y el desarrollo. 1.2.3.4 Ingeniería Química: Rama de la ingeniería que estudia la aplicación, el desarrollo y la operación de procesos de manufactura en los cuales, mediante cambios en la composición y en las características físicas de los materiales se crean bienes, productos y servicios industriales y comerciales. Los ingenieros químicos, tienen contactos con procesos químicos y biológicos que toman las materias primas en productos valiosos, con perdida de material y consumo de energía mínimo. Las habilidades necesarias incluyen todos los aspectos del diseño, ensayo, escalamiento, operación, control y optimización. 14 Los ingenieros químicos tienen que ver con el diseño, y desarrollo de los productos, como alimentos, drogas, plásticos, empaques, vidrios, productos químicos en general. 1.2.3.5 Ingeniería Agrícola: Es la rama de La ingeniería que se orienta a la planeación, gestión, diseño, ejecución y supervisión de proyectos de ingeniería relacionados con el manejo y aprovechamiento racional de los recursos hídricos, el planeamiento y construcción de obras de infraestructura y la mecanización agrícola y agroindustrial. Un ingeniero agrícola esta capacitado para dar solución a los problemas de diseño y desarrollo de las infraestructuras agropecuarias, mediante la aplicación de los conocimientos de la ingeniería, del suelo, del agua, de la planta, y de los problemas ecológicos y socioeconómicos. Sus áreas de trabajo están en la mecanización agrícola, el control del ambiente, y la administración de empresas y proyectos agropecuarios. 1.2.3.6 Ingeniería Electrónica: La ingeniería electrónica abarca un amplio espectro de tecnologías, que tienen que ver con los movimientos de los electrones y su control para fines útiles al hombre. Su campo de acción son los sistemas eléctricos con el énfasis en el manejo de señales eléctricas, acústicas, ópticas, y electromagnéticas usadas en funciones de medición, control, comunicaciones e informática. Los ingenieros electrónicos modelan, diseñan, adaptan, mantienen, implantan y gestionan equipos y sistemas electrónicos aplicados en áreas como las telecomunicaciones, la bioingeniería, la microelectrónica, las tecnologías de la información y la automatización. 1.2.3.7 Ingeniería Industrial: La ingeniería Industrial aplica a la planificación y gestión de la producción la ingeniería de plantas industriales, la gestión de la calidad, el establecimiento de objetivos, y esta muy ligada a la gestión en cuanto realiza estudio de organización y métodos; planea, programa y controla la producción, supervisa y controla la calidad, asesora y realiza consultoría, investiga operaciones; participa en la dirección técnica y administrativa y financiera de las empresas. 1.2.3.8 Ingeniería de Sistemas: Trabaja con los simbólico apoyados en máquinas especiales que son los computadores, para ello adapta, mantiene, implementa y administra equipos y sistemas de: comunicación, información, cómputo, simulación, control y administración. Mediante el análisis del sistema, el ingeniero de sistemas identifica las necesidades del usuario, determina la viabilidad 15 técnica y económica y asigna las funciones y el rendimiento al software, al hardware a la gente y a la base de datos así como los elementos claves del sistema. Las funciones del ingeniero de sistemas comprende el análisis de las estructuras de información en una organización; la realización de investigaciones, desarrollos y aplicaciones a los nuevos adelantos tecnológicos en las áreas de computación y sistemas con el fin de alcanzar su adecuada adaptación a nuestro medio desarrolla software tantea nivel de programas de sistemas como a nivel de programas de aplicaciones; evalúa desde el punto de vista técnico y económico, equipos de computación electrónicos y sistemas de procesamiento de datos. 1.2.3.9 Ingeniería Metalúrgica y de Materiales: La metalurgia es el arte y la ciencia de obtener los metales a partir de sus minerales y aplicarlos a las necesidades del hombre. El ingeniero metalúrgico interviene en el proceso de los productos de la minería y con la ayuda de la electricidad , la química y la mecánica obtienen metales y aleaciones como materia prima para lograr todo tipo de estructuras metálicas; equipos, mecanismos y vehículos para satisfacer necesidades humanas. Proyecta, diseña, dirige, y realiza labores que implican la obtención de materiales o su transformación, realiza investigaciones para perfeccionar los métodos de tratamiento de minerales, de obtención de metales. 1.2.3.10 Ingeniería Ambiental: Busca el desarrollo sostenible, no solo con el cuidado y mejoramiento del ambiente, sino también el crecimiento social y económico de las comunidades. El ingeniero ambiental se desempeña en empresas de servicios públicos, institutos de investigación, comunidades, universidades, monitoreando el manejo de los recursos la calidad de los mismos, investigando y presentando propuestas de desarrollo sostenible. 1.2.3.11 Ingeniería Geológica: Aplica los conocimientos de la geología al diseño y construcción de obras ingenieriles, a la explotación de los recursos minerales, y al investigación de daños causados por desastres naturales o de origen geológicos inducidos por el hombre. Se dedica fundamentalmente a la explotación de investigación de la corteza terrestre, con el objetivo de estudiar los componentes que lo conforman para buscar materias extractivas o seleccionar lugares para construir carreteras o vías férreas, obras de embalse, canales de regadío, puertos, túneles, y cualquier otro tipo de construcción. 16 1.2.3.12 Ingeniería de Alimentos: Rama especializada en la producción de alimentos, desde la obtención de materias primas, su transformación física, química y Biológicas, mediante procesos industriales hasta su embasado y distribución. Para ello toma los conceptos de la física y la química, y los aplica junto con los principios de la ingeniería del diseño, desarrollo de operaciones de equipos y procesos para el manejo, transformación, conservación y aprovechamiento integral de las materias primas, alimentarías, bajo parámetros de calidad, desde el momento de su producción primaria hasta su consumo. Esto se realiza sin agotar la base de los recursos naturales ni deteriorar el medio ambiente y atendiendo a los aspectos de calidad, seguridad, higiene y saneamiento. Los aspectos teóricos y prácticos de la industria alimentaría, desde la calidad de las materias primas hasta el uso final por los consumidores son el principal campo de estudio y práctica de la ingeniería de alimentos. Aplica los principios de la ingeniería de procesos y de la química a los alimentos. 1.2.3.13 Ingeniería de Minas: Es la profesión en la cual los conocimientos de la ciencias naturales, como la química, la física, la matemática, la geología, se aplican con buen criterio y tecnología al desarrollo del medio, y extraer de la naturaleza económicamente con responsabilidad, social basada en un ética profesional, los minerales para el beneficio de la humanidad. El ingeniero de minas se encarga de la localización de los recursos mineros, organiza y dirige los trabajos para extraer de la tierra minerales sólidos, metálicos o no y el tratamiento para su utilización directa o su transformación. Realiza estudios geológicos y topográficos, recomienda mejores métodos de explotación. 1.2.3.14 Ingeniería de Telecomunicaciones: Dos áreas de la ingeniería han ejercido un impacto contundente en las telecomunicaciones. La electrónica o microelectrónica y la computación, esto ha llevado a la variedad y tamaño de los sistemas actuales de telecomunicaciones como la telefonía fija y móvil, la radio, la televisión, el radar, las redes de computadores, los sistemas satelitales, etc. y ha hecho imperativo el surgimiento de una nueva ingeniería, desprendida normalmente de la ingeniería electrónica y dedicada a esta área de trabajo, vale decir, la ingeniería de la telecomunicaciones. Sectores de trabajo de la Ingeniería de telecomunicaciones: - Sistemas de telecomunicaciones. - Telefonía. - Comunicación Móvil. 17 - Comunicaciones satelitales. Radio y televisión. Telemática y redes de computadoras. Tecnología de Internet. Sistemas de telemetría. Sistemas de control. 1.2.4 Definición de Tecnología8 2. f. Conjunto de teorías y de técnicas que permiten el aprovechamiento práctico del conocimiento científico. 3. f. Tratado de los términos técnicos. 4. f. Lenguaje propio de una ciencia o de un arte. 5. f. Conjunto de los instrumentos y procedimientos industriales de un determinado sector o producto. 1.3 Ingeniería y Tecnología Electrónica 1.3.1 Definición9 Electrónico, ca. (De electrón). 1. adj. Fís. Perteneciente o relativo al electrón. 2. adj. Perteneciente o relativo a la electrónica. 3. m. y f. Especialista en electrónica. 4. f. Fís. y Tecnol. Estudio y aplicación del comportamiento de los electrones en diversos medios, como el vacío, los gases y los semiconductores, sometidos a la acción de campos eléctricos y magnéticos. 5. f. Aplicación de estos fenómenos. buzón electrónico, cañón electrónico, cerebro electrónico, computadora electrónica, computador electrónico, correo electrónico, guerra electrónica, microfotografía electrónica, microscopio electrónico, pantalla electrónica, tarjeta electrónica 1.3.2 Objetivos Ningún aspecto de la Vida Humana ha podido sustraerse a las aplicaciones de la electrónica. La producción en las granjas, las ventas al por menor, la manufactura, las comunicaciones, el transporte, las labores domésticas, el 8 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006. http://www.rae.es. 9 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es. 18 entretenimiento, en fin todas las actividades modernas se han desarrollado significativamente mediante la incorporación de electrónica. La gran importancia que ha tomado la electrónica radica en la gran incidencia que tienen sus productos finales en la vida moderna, en el incremento continuo de la actividad económica que genera su creciente demanda de bienes y servicios y en la extraordinaria dinámica que le es característica hasta el punto que se le considera sinónimo de cambio tecnológico. En el momento actual, la producción electrónica es el sector industrial más grande del mundo. En los Estados Unidos la industria electrónica superó a las industrias del automóvil, aeroespacial y del petróleo juntas tanto en inversión como en empleo. A nivel mundial la producción electrónica emplea 10.5 millones de personas actualmente y se estima que en la próxima década esta cifra se doblará, lo cual significa un crecimiento impresionante no comparable al de otros sectores económicos Entre 1982 y 1987 la producción electrónica mundial tuvo un crecimiento anual promedio de 11.8% mientras el PIB crecía en promedio el 3,2%. El reducido crecimiento que mostró el PIB mundial entre 1987 y 1992 (1.7%) deprimió el crecimiento anual promedio de la industria electrónica, la cual solo alcanzó una tasa del 5.1%. Durante el período 1992 - 1997 hubo una recuperación que alcanzó un crecimiento promedio del 6.4% con un crecimiento del PIB del 3.6% anual. Para el período 1997 - 2002 los estimativos indicaron que la industria electrónica creció a tasas del orden de 8.5% con PIB del 4.1%.2 Las cifras anteriores son bastante elocuentes. Durante década y media la industria electrónica mundial ha tenido un crecimiento anual a tasas iguales o superiores al doble del crecimiento del PIB del mundo. Y lo que es más importante, los expertos afirman que el mercado mundial de la electrónica apenas está en su infancia. Corrobora esta afirmación el desarrollo que tendrá una de las áreas más importantes de la tecnología electrónica, el mercado mundial de los computadores. En el año 1991 el número de computadores por persona era de 0.02. Para el año 2001 esta cifra era de 0.07, y una década después se espera que llegue a 0.18 computadores por persona. Para alcanzar estas metas se tendrán que fabricar 1000 millones de computadores en los próximos 20 años, sin contar los que se requerirán para reemplazar aquellos que van quedando obsoletos. Y este probablemente no es el campo más dinámico de la electrónica, pues lo supera en actividad y por tanto en inversiones el área de las telecomunicaciones 2 AGARWALA GOKUL, “The World Wide Electronics Industry Status & Opportunities for Latin America”, California, 1995. 19 cuya expansión se estima que será vertiginosa en las próximas décadas. En este campo el crecimiento y expansión de las redes mundiales ha sido permanente. Durante 1994 los suscriptores de líneas telefónicas aumentaron el 21.4%, pasando de 31.3 a 38.0 millones; los suscriptores de teléfonos móviles se incrementaron en 74.5%, al pasar de 11.0 a 19.2 millones; los usuarios de TV por cable crecieron 6% aproximadamente, al pasar de 13.7 a 14.5 millones; y los suscriptores de Internet aumentaron el 126.6% al pasar de 6.0 a 13.9 millones. El crecimiento de la producción electrónica mundial será vertiginoso en las próximas décadas. En el año 1992 la producción de bienes y servicios de base electrónica ascendía a la suma de 800 billones de dólares. Se estima que una década después, en el año 2002 esta producción alcanzó los 1700 billones de dólares y que en el año 2012, es decir una década más tarde esta producción volverá a duplicarse, ascendiendo a 3600 billones de dólares. Este crecimiento sin precedentes no da cuenta de la desigual distribución por regiones. En la Tabla No. 1 se presenta la distribución regional a partir del número de empresas localizadas en cada una y del número de empleos generados. Adicionalmente se presenta la productividad por empleado que es un índice del grado de eficiencia y avance de la producción de cada región del mundo. Puede verse en la tabla, que la mayor concentración de empresas y empleados se encuentra en los países industrializados, destacándose el Japón con una tercera parte del total de cerca de cien mil empresas. Le siguen Estados Unidos y Canadá que en conjunto cuentan con la quinta parte de las empresas. Luego se encuentra Europa Occidental con algo más de la sexta parte, mientras que los famosos cuatro tigres asiáticos llegan apenas a algo menos de la décima parte del total de las empresas. Tabla No 1 Motor de desarrollo económico y social en todo el mundo DISTRIBUCIÓN REGIONAL Región No. De Empresas Empleo USA/Canadá W. Europa E. Europa Japón Cuatro Tigres R.Asia /Aust. M.E./Africa América Latina Total 21.632 17.766 2.010 35.355 9.245 6.200 500 6.300 99.058 2.126.000 1.633.000 1.172.000 1.940.000 757.300 2.227.000 180.000 492.000 10.527.700 Productividad (Dólares) 124.900 116.500 10.750 95.500 90.925 28.000 33.000 55.000 76.375 20 Fuente: AGARWALA GOKUL “The World Wide Electronics Industry Status & Opportunities for Latin America”, California, 1995. Por su carácter de tecnología de punta, la electrónica demanda mano de obra de alta y mediana calificación para las tareas de desarrollo de productos, fabricación, instalación, prueba, reparación y mantenimiento de equipos y sistemas en campos como telecomunicaciones, automatización, control, computación, electromedicina, etc. Pero la demanda de mano de obra va mucho mas allá, pues las empresas requieren personal calificado para labores propias de la comercialización de bienes y servicios de base electrónica tales como diseño de soluciones, asesoría, ventas, servicio al cliente, servicio postventas, etc. Como puede verse el campo de acción para los tecnólogos y los ingenieros electrónicos es muy amplio y se encuentra en expansión por el creciente desarrollo que los servicios de base electrónica están teniendo en todo el mundo, desarrollo que apenas se halla en sus comienzos y del que no se pueden sustraer los países subdesarrollados, a riesgo de acentuar su atraso.. 1.4 SISTEMA 1.4.1 Definición10 sistema. 1. m. Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí. 2. m. Conjunto de cosas que relacionadas entre sí ordenadamente contribuyen a determinado objeto. 3. m. Biol. Conjunto de órganos que intervienen en alguna de las principales funciones vegetativas. Sistema nervioso. 4. m. Ling. Conjunto estructurado de unidades relacionadas entre sí que se definen por oposición; p. ej., la lengua o los distintos componentes de la descripción lingüística. Otras definiciones Romero Augusto,11 Existen diversos conceptos y definiciones de sistemas que se han usado con frecuencia en las distintas disciplinas y ocupaciones. Muchos han escuchado los términos sistema social, sistema de producción, sistema financiero, sistema de administración, sistema de instrucción, ingeniería de sistemas, etc. 10 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es ROMERO, Augusto, Teoría de sistemas; Universidad Pedagógica Nacional de Colombia. Bogotá 1978. Mimeografiado. Pg 42 11 21 Desde aquí se ve la palabra en diferentes campos, desde la industria hasta las ciencias puras. Llama la atención las definiciones que han aportado diversos autores en su afán de construir una teoría general de sistemas: Banghart (1969), define sistema como un término que representa todas las actividades que comprende un proceso de solución de problemas, desde su formulación, pasando por la implementación, hasta llegar a las recomendaciones. Ryan (1969), lo define como una organización de componentes interrelacionados e interdependientes, con la organización general y con el medio o contexto en el cual se ubica. Esta relación se mantiene mediante formas de operación y de información entre el sistema y el contexto, con el propósito de lograr los objetivos, asignados a la organización o sistema. Silvern (1968), establece que un sistema es la estructura u organización de un todo, que muestra claramente las interrelaciones de las partes entre sí y con la totalidad a la cual pertenecen. Kaufman (1972), define un sistema como la suma total de partes trabajando interdependientemente entre si para lograr resultados requeridos, con base en necesidades establecidas. Bertalanffy (1973), define un sistema como un conjunto de elementos interactuando. Finalmente, Banathy (1973) afirma que un sistema esta constituido por un conjunto de partes de una organización diseñada para lograr objetivos específicos. De las anteriores definiciones se puede deducir que sistema es un concepto que puede referirse a un individuo, a una institución o a cualquier otra entidad. En su definición participan elementos tales como: 1. conjunto de partes interactuando 2. con objetivos propios 3. cuyo logro se realiza a través de procesos. 4 para producir resultados deseados; 5. el funcionamiento está determinado por límites identificables en el contexto en el cual se ubica y 6. el mantenimiento de un sistema es posible mediante el intercambio de energía e información con el contexto, a través de procesos de control e información de retorno. Lo anterior nos demuestra la carencia de principios y de una teoría general que pueda ser aplicada a todos los sistemas. 1.4.2 Características y clases de los sistemas. 22 Ryan (1969) establece las siguientes características como propias de los sistemas: o Son conjuntos de elementos ordenados y organizados. o Están compuestos de elementos o componentes y de relaciones entre si y con la totalidad del sistema. o Funcionan como una totalidad en virtud de la interdependencia entre las partes. o Están ubicados dentro de un contexto y orientados hacia fines específicos. o Poseen una estructura de funcionamiento que les permite una dinámica de desarrollo. Este mismo autor ofrece cuatro principios generales, los cuales han sido aplicados al estudio del funcionamiento de los sistemas y al desarrollo de nuevos sistemas: PRINCIPIO I: A mayor grado de totalidad en el sistema, mayor es su eficiencia. En todo sistema debe existir cierto grado de totalidad. Esta es definida por la forma en que cada parte del sistema está en relación con cada una de las otras partes, en tal sentido, que un cambio producido en una de ellas, repercute en las otras partes y en el sistema total. PRINCIPIO II: A mayor grado de sistematización mayor es también la eficiencia de operación del sistema. La sistematización hace referencia al grado de fortaleza en las relaciones entre las partes de un sistema. En un sistema cuyas partes estén debidamente interrelacionadas, se hace necesario el ajuste de estas relaciones o el reemplazo de las partes, a fin de lograr el nivel deseado de firmeza y seguridad en el funcionamiento del sistema. PRINCIPIO III: A mayor grado de optimización, más efectivo es el sistema. La optimización se define como el grado de congruencia entre el sistema y su objetivo. Además, el sistema debe estar adaptado a las condiciones del medio en tal forma que se asegure la mejor actuación en relación con los objetivos. PRINCIPIO IV: A mayor grado de compatibilidad entre el sistema y su contexto, más efectivo es el sistema. La compatibilidad se refiere a la vinculación funcional del sistema con un medio particular. Es decir, un sistema debe operar de acuerdo con las características propias del medio. Clasificación de los sistemas. Todos los internos de clasificación de los sistemas han demostrado que ésta es una misión compleja y un proceso difícil. Una clasificación inicial es la que divide los sistemas en deterministas y probabilistas. NIVELES DE LOS SISTEMAS12 Si se observa la relación, todos los sistemas pueden ser considerados como parte de un sistema mayor y, al mismo tiempo, considerárseles como formados por 12 BERTANLANFFY, L:V Teoría general de sistemas. Ed Boston, 1973, pg 99. 23 partes o subsistemas. según ciertos niveles. Esta situación determina la necesidad de clasificarlos Las partes principales de un sistema, también conocidas como las funciones principales, son llamadas sub-sistemas. Un sistema puede tener dos o más subsistemas. El supra-sistema es la totalidad resultante de la interacción de un conjunto de sistemas. Por ejemplo, la relación que existe entre el sistema nervioso y el cuerpo humano, entre las escuelas, tomadas individualmente como sistemas y el contexto socio-cultural al cual pertenecen; entre el sistema educativo nacional y el suprasistema social. Así, la definición de subsistema o sistema, está en relación con el sistema mayor al cual pertenece. Otra clasificación de los niveles de los sistemas, es la presentada por Boulding (1956). NIVEL Estructuras estáticas Mecanismos de control Sistemas abiertos Sistema animal Sistemas humanos Sistemas sociales Sistemas simbólicos DESCRIPCIÓN Llamado también el nivel de las estructuras. Considerado como el principio de conocimientos teóricos organizados, pues la precisión de relaciones estáticas hace posible la teoría dinámica o funcional. Este nivel comprende; átomos, moléculas, cristales, estructuras biológicas de nivel microscópico. Su descripción se hace a través de fórmulas estructurales. Son sistemas cibernéticos y homeostáticos en cuanto a la transmisión e interpretación de información esencial para la supervivencia del sistema. A este nivel pertenecen el termostato, servomecanismos y mecanismos homeostáticos en los organismos. Son estructuras autorreguladas, en donde se puede diferenciar la vida. Son sistemas que sostienen el paso de la materia (metabolismo). También se le denomina el nivel de la célula y de los organismos en general. Están caracterizados por la capacidad de movimiento creciente, conducta teleológica, aprendizaje y conocimiento de su existencia. El modo de actuar responde a una imagen o estructura de conocimiento o percepción del medio ambiente. Tienen comportamiento autónomo debido a la gran capacidad de recepción y procesamiento de información. Aquí comienza la teoría referida a los autómatas. Es el individuo considerado como sistema. Se diferencia del nivel anterior por cuanto posee autoconciencia; la percepción, además de ser más compleja tiene una cualidad reflexiva, no sólo conoce, sino que esta consciente de lo que conoce. Estas propiedades están ligadas a los fenómenos del lenguaje: hablar, producir, percibir e interpretar símbolos. Son las organizaciones sociales, donde tienen especial significado los valores, la naturaleza y dimensión del conjunto de valores, los símbolos vinculados a las manifestaciones artísticas y la gama completa de emociones humanas. Representados por el lenguaje; la lógica; las matemáticas, las artes, la moral y demás sistemas de orden simbólicos. 24 25 CAPITULO 2 2.1 ANTECEDENTES Historia de la Ingeniería13 LA INGENIERÍA PRIMITIVA La ingeniería era ya milenaria cuando se intentó definirla, nació antes que la ciencia y la tecnología y puede decirse que es casi tan antigua como el hombre mismo. Obviamente esta concepción de lo que es un ingeniero se sale de los estrechos marcos de las conceptualizaciones actuales. No se pretenderá que los ingenieros primigenios fueran científicos y mucho menos que conocieran la tecnología, eran simplemente ingenieros. Por ello ingeniero no es quien tiene título, es quien ejerce la ingeniería, la profesión que concreta los sueños y construye los ingenios de todo tipo, desde la rueda hasta los cyborgs, entendiendo como ingenio ya sea una máquina o artificio de guerra o bien una cosa que se fabrica con entendimiento y facilita la labor humana, que de otra manera demandaría grandes esfuerzos. En realidad la palabra ingeniero apareció en la Edad Media para designar a los constructores de ingenios, aunque junto con el sacerdocio y la milicia la ingeniería fue una de las primeras profesiones en aparecer. La ingeniería, cualquiera que sea su definición formal, tiene su historia, pues ella no se ha desarrollado sin conexión con las otras actividades humanas, al contrario: es una de las más significativas empresas sociales del hombre. En este sentido la ingeniería debe mirarse en el contexto de la historia general asociada con los grandes eventos que han cambiado totalmente los sistemas de la vida humana como: la revolución en la producción de alimentos (6000-3000 AC), la aparición de la sociedad urbana (3000-2000 AC), el nacimiento de la ciencia griega (600-300), la revolución en la fuerza motriz (Edad Media), el surgimiento de la ciencia moderna (siglo XVII), el vapor y la revolución industrial (siglo XVIII), la electricidad y los comienzos de la ciencia aplicada (siglo XIX), la edad de la automatización (siglo XX), la revolución termonuclear, la revolución de la electrónica y la informática, en suma con la nueva era del conocimiento. A través de las edades, el ingeniero ha estado al frente como un hacedor de la historia. Sus logros materiales han tenido tanto impacto como cualquier otro desarrollo político, económico o social. Estos cambios fundamentales han estimulado desarrollos ingenieriles, los cuales a su vez han acelerado la velocidad de la revolución histórica14 13 Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia, http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm 14 El autor cita a: Kirby, Richard Shelton et al., Engineering in history, Dover Publications, New York, 1990, Ribeiro, Darcy, El proceso civilizatorio, Universidad del Valle, Cali, 1993. 26 Los comienzos de la ingeniería se considera que ocurrieron en Asia Menor o África hace unos 8000 años, cuando el hombre empezó a cultivar plantas, domesticar animales, y construir casas en grupos comunitarios. Tras el afianzamiento de la revolución agrícola, se acumularon innovaciones técnicas que ampliaron progresivamente la eficacia productiva del trabajo humano, se inició así el influjo inicial de la ingeniería, que provocó alteraciones institucionales en los modos de relación entre los hombres para la producción y en las formas de distribución de los productos del trabajo. El cambio más significativo fue el surgimiento de las ciudades que ocurrió hacia el año 3000 A.C. En las ciudades hubo administración central y comercio y muchos habitantes adoptaron profesiones diferentes a las de agricultor, pastor o pescador; se hicieron gobernantes, administradores, soldados, sacerdotes, escribas o artesanos, a quienes se puede llamar los primeros ingenieros. Es decir se afianzó la técnica. La interacción entre esta nueva sociedad urbana y la ingeniería fue muy fértil, pero de igual importancia fue el desarrollo del conocimiento y las herramientas del conocimiento fundamental para los ingenieros. Los desarrollos de esta época incluyen los métodos de producir fuego a voluntad, la fusión de ciertos minerales para producir herramientas de cobre y bronce, la invención del eje y la rueda, el desarrollo del sistema de símbolos para la comunicación escrita, las técnicas de cálculo y la aritmética y la normalización de pesas y medidas. Hasta 3000 A.C. la mayoría de las edificaciones eran modestas viviendas, pero desde entonces la ingeniería estructural dejó de ser meramente funcional, también fue arquitectónica. Se construyeron grandes palacios para los príncipes y enormes templos para los sacerdotes. Una consecuencia de la aparición de las religiones organizadas, con su gran estructura, fue un aumento de la actividad ingenieril y de su conocimiento. La nueva riqueza y los rituales religiosos también llevaron a la construcción de tumbas monumentales, de las cuales son ejemplo sobresaliente las pirámides. De hecho el primer ingeniero conocido por su nombre fue Imhotep, constructor de la Pirámide de peldaños en Saqqarah, Egipto, probablemente hacia el 2550 A.C. Este ingeniero alcanzó tanta reverencia por su sabiduría y habilidad, que fue elevado a la categoría de dios después de su muerte. Los sucesores de Imhotep - egipcios, persas, griegos y romanos - llevaron la ingeniería civil a notables alturas sobre la base de métodos empíricos ayudados por la aritmética, la geometría y algunos conocimientos incipientes de física15. Sin embargo, es paradójico que la obra de los ingenieros, presente en toda la historia, 15 El autor cita a: The New Encyclopaedia Britannica, "Engineering", Macropaedia, vol 18, 15th ed., Chicago, 1993, p. 414. 27 no fue reconocida jamás como obra de ingeniería, sino, acaso, como obra de arquitectura. Podrían explicarse largamente los sistemas de construcción en Mesopotámia, los sistemas de ingeniería hidráulica y sanitaria que se desarrollaron allí, así como los caminos, los puentes y las artes navales de los imperios asirios, babilonios y otros pueblos de esa región. Sin embargo, no es objeto de este trabajo hacer una historia de la ingeniería sino señalar algunos hechos que permitan presentar posteriormente los argumentos necesarios al meollo de esta exposición: lo artístico y sacro (o mágico) de la ingeniería. De la misma manera debe recordarse la ingeniería egipcia basada en la fuerza de ejércitos de hombres sometidos a un faraón y en la gran cantidad de piedra disponible en el valle del Nilo. Esto permitió la construcción de los enormes templos y pirámides característicos. Allí además se hizo necesaria la construcción de complejos sistemas de irrigación, dando origen a la agrimensura y la matemática correspondiente. Es claro, entonces que el mundo antiguo percibió a la ingeniería como un quehacer que competía con las fuerzas naturales y las domeñaba, con una profesión atenta a la invención de los ingenios de guerra, de las máquinas de extracción del agua, de los caminos, de los canales, de los puentes, del desecamiento de los pantanos, de las galerías subterráneas, de los grandes ingenios portuarios, de las defensas de las ciudades...16 Esa percepción de que la ingeniería enfrentaba las fuerzas de la Naturaleza comprendía en ella una componente técnica, pero sobre todo intuía una porción mágica, sagrada: el portento de alterar los ritmos y las figuras del ser natural. Unos portentos que asombraban, atemorizaban y hacían al mismo tiempo que el hombre se atreviera a lo insólito con el imaginar de su inventiva. 2.1.1 Historia de la ingeniería en el mundo17 LOS INGENIERÍA GRIEGA Y ROMANA 16 El autor cita a: Beakley, George C. and H. W. Leach, Engineering. An introduction to a creative profession, The Macmillan Company, New York, 1987. Furnas, C. C. and J. McCarthy, The engineer, Time, New York, 1966. Ehinnery, John R., The world of engineering, McGraw Hill, New York, 1985. 17 Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia, http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm 28 Con el declinar de la civilización egipcia, el centro del conocimiento se desplazó a la isla de Creta y después, alrededor del 1400 A. C., hacia la antigua ciudad de Micenas en Grecia, el lugar de donde Agamenón partió para la guerra de Troya. Los constructores de Micenas, como los egipcios, manejaron enormes bloques de piedra, hasta de 120 toneladas, en sus construcciones. Además dominaron el arco falso, una técnica que les ha ganado un puesto en la ingeniería. Este principio lo usaron en las construcciones subterráneas, como tumbas y sótanos y en las superficiales en puentes para vías y acueductos, pues estos últimos los construyeron con eficacia, así como los sistemas de drenaje18. Los griegos de Atenas y Esparta copiaron muchos de sus desarrollos de los ingenieros minoicos, porque en esa época fueron más conocidos por el desarrollo intensivo de ideas prestadas que por su creatividad e inventiva. La ciencia griega no fue muy propensa a la ingeniería, pero en este sentido quizá su mayor contribución fue descubrir que la naturaleza tiene leyes generales de comportamiento, las cuales se pueden describir con palabras. Además está la ventaja de la geometría euclidiana y su influjo en la ingeniería El primer ingeniero reconocido en el mundo griego fue Pytheos, constructor del Mausoleo de Halicarnaso em 352 A.C., quien combinó allí tres elementos: el pedestal elevado de la columna, el templo griego y el túmulo funerario egipcio. Además fue el primero que entrenó sus aprendices en escuelas y escribió tratados para los constructores del futuro. Otros ingenieros importantes fueron Dinocrates el planeador de Alejandría y Sostratus, quien contruyó el famoso faro. Inventos y descubrimientos griegos sobresalientes son los de Arquímedes y los de Cresibius, antecesor de Herón, el inventor de la turbina de vapor. Pero los mejores ingenieros de la antigüedad fueron los romanos, quienes liberalmente tomaron ideas de los países conquistados para usarlas en la guerra y las obras públicas. Aunque muchas veces carecieron de originalidad de pensamiento, los ingenieros romanos fueron superiores en la aplicación de las técnicas, entre las cuales son notables los puentes que usaron en vías y acueductos. 18 El autor cita a: Franz, Georg, Las transformaciones en el mundo mediterráneo, Siglo XXI, México, 1980. 29 Pontífice, la palabra que designaba a las ingenieros constructores de puentes, tomó una denotación tan importante que en tiempos de los romanos vino a significar el magistrado sacerdotal que organizaba y presidía el culto a los dioses y con esa acepción se utiliza el término en la actualidad. Esta anotación semántica sólo para insistir en el contenido sacro de las actividades ingenieriles. Además de los notables puentes de los acueductos, visibles en Europa y Asia y de los cuales son ejemplos famosos el aguaducho de Segovia o el Pont du Gard, cerca de Nimes, con 50 m de altura y 300 de largo, son altamente notables las famosas vías imperiales como la Via Appia y la Via Flaminia, que atraviesan Italia longitudinalmente. En la cumbre del poder romano la red de carreteras cubría 290.000 kms desde Escocia hasta Persia. Un historiador afirma que las ciudades del imperio romano gozaban de sistemas de drenaje y suministro de agua, calefacción, calles pavimentadas, mercados de carne y pescado, baños públicos y otras facilidades municipales comparables a las actuales. La aplicación de la ingeniería en las artes militares y en los problemas de navegación, adecuación de puertos y bahías implicó, como en los otros casos, el uso de máquinas, materiales y procesos, que hablan del grado de desarrollo de la ingeniería romana, de la cual quedó fundamentación escrita en muchos tratados escritos en aquel tiempo y entre los cuales descuellan los trabajos de Vitruvio. El libro De Architectura de Vitruvio, fue escrito en Roma en el primer siglo D.C. Consistía en 10 volúmenes que incluyen materiales y métodos de construcción, hidráulica, mediciones, diseño y planificación urbana19. Cuando el poder se desplazó de Roma a Bizancio en el siglo sexto D.C. la ingeniería romana se adaptó a nuevas exigencias y surgieron nuevas formas de construcción, en esto los bizantinos superaron a egipcios, griegos y romanos, desarrollaron el principio del arco y lo utilizaron en un domo soportado en las esquinas de una torre cuadrada, la diagonal de la cual era igual al diámetro de la base del domo. Un ejemplo notable de este sistema es la catedral de Santa Sofía. LA INGENIERÍA EN LA EDAD MEDIA Después de la caída de Roma, el conocimiento científico se dispersó entre pequeños grupos, principalmente bajo el control de órdenes religiosas. En el Oriente, empezó un despertar de la tecnología entre los árabes, pero se hizo muy 19 El autor cita a: Vitruvius Pollio, Marcus, On architecture, Putnam's and sons, New York, 1934. 30 poco esfuerzo organizado para realizar trabajo científico. Al contrario, fue un período en el cual individuos aislados hicieron nuevos descubrimientos y redescubrieron hechos científicos conocidos antes. Fue durante este período que se usó por primera vez la palabra ingeniero. La historia cuenta que alrededor del año 200 D.C se construyó un ingenio, una invención, que era una especie de catapulta usada en el ataque de las murallas defensoras de las ciudades. Miles de años después sabemos que el operador de tal máquina de guerra era el ingeniator, el origen de nuestro título moderno: el ingeniero. Un historiador afirma que: "la principal gloria de la Edad Media no fueron sus catedrales, su épica o su escolástica: fue la construcción, por primera vez en la historia, de una civilización compleja que no se basó en las espaldas sudorosas de esclavos o peones sino primordialmente en fuerza no humana"20. Esto porque la revolución medieval de la fuerza y la potencia es uno de los desarrollos más dramáticos e importantes de la historia. Obviamente que un estímulo para este desarrollo fue el decaimiento de la institución de la esclavitud y el continuo crecimiento del cristianismo. Las principales fuentes de potencia fueron; la fuerza hidráulica, el viento y el caballo, que se concretaron en las ruedas y turbinas hidráulicas, los molinos de viento y las velas, las carretas y los carruajes. Además se hicieron otros avances técnicos como el uso del carbón de leña y el soplo de aire para fundir el hierro eficientemente. Otro avance fue la introducción, desde China, del papel y la pólvora por los árabes, así como las ciencias de la química y la óptica que ellos desarrollaron. Sin duda el uso del papel, la invención de la imprenta y la brújula, con las posibilidades de navegación, contribuyeron a la dispersión del conocimiento. El cristianismo hizo desarrollar la construcción en expresiones tan maravillosas y sacras como las catedrales góticas y el Islam las construcciones y mezquitas de los moros. Los ingenieros medievales elevaron la técnica de la construcción, en la forma del arco gótico y los arbotantes, hasta alturas desconocidas por los romanos. Vías, puentes, canales, túneles, diques, puertos, muelles y máquinas se construyeron en la Edad Media con un conocimiento, que todavía pasma en la 20 El autor cita a: Harvey, John, The Gothic World 1100-1600, B. T. Batsford, London, 1970. 31 actualidad. El libro de bosquejos del ingeniero francés Villard de Honnecourt revela un amplio conocimiento de las matemáticas, la geometría, las ciencias naturales y la artesanía. De esos tiempos data una máquina tan maravillosa como el reloj mecánico, que iría a influir tan marcadamente en la civilización moderna. En Asia la ingeniería también avanzó con complejas técnicas de construcción, hidráulica y metalurgia, que ayudaron a crear civilizaciones como la del imperio Mongol, cuyas grandes y bellas ciudades impresionaron a Marco Polo en el siglo XIII. LA REVOLUCIÓN CIENTÍFICA Y TECNOLÓGICO DE LOS SIGLOS XVII Y XVIII Aunque Venecia se enorgullece de sus esplendentes obras de ingeniería, Florencia tuvo el más famoso ingeniero de todos los tiempos. Pocas veces ha sido bendecido el mundo con un genio como Leonardo da Vinci (1452-1519). Aunque aún es aclamado como uno de las grandes artistas del Renacimiento, sus esfuerzos como ingeniero, inventor y arquitecto, son todavía más impresionantes. Mucho después de su muerte sus diseños de la turbina de gas, la ametralladora, la cámara, las membranas cónicas y el helicóptero, han demostrado ser utilizables. Galileo (1564-1642) fue también un hombre de gran versatilidad. Fue un excelente escritor, artista y músico, y es considerado también como uno de los principales científicos de este período histórico. Una de sus mayores contribuciones fue su formulación del método científico para acceder al conocimiento. Habrá que mencionar una pléyade de nombres ilustres en el desarrollo de la ciencia y la tecnología en este período: Torricelli, Pascal, Fermat, Descartes, Boyle, Hooke, Huygens, Leibniz y ese otro genio inglés: Isaac Newton. En esa época se hicieron los primeros intentos para producir la máquina de vapor por parte de Papin y Newcomen. Aunque estas primeras máquinas eran muy ineficientes, marcaron el inicio de las máquinas térmicas como productoras de potencia21. La revolución industrial Cuarenta años después de la muerte de Newcomen, James Watt hizo cambios tan fundamentales e importantes que, junto con Newcomen y Savery, se le da crédito como originador de la máquina de vapor. El otro desarrollo que dio ímpetu a los 21 El autor cita a: Berg, Maxine, La era de las manufacturas 1700-1820, Editorial Crítica, Barcelona, 1987. 32 descubrimientos tecnológicos fue el método, descubierto por Henry Cort, para refinar el hierro. Este y la máquina de Watt proporcionaron una fuente de hierro para la maquinaria y plantas de fuerza motriz para operar la maquinaria. El barco de vapor y los ferrocarriles, la unión entre la ciencia y la técnica, la enseñanza de la ingeniería y el desarrollo industrial generaron todas las consecuencias de la Revolución Industrial22. LA INGENIERÍA DEL SIGLO XX Tres desarrollos de la ingeniería del siglo XIX cambiaron las formas de vida humana y alteraron la evolución de la historia. El primero fue la expansión de la revolución industrial, el segundo el surgimiento de la ingeniería civil como una profesión, que incluyó la conciencia de la necesidad de la educación científica y técnica como prerrequisito para la práctica ingenieril. El tercer desarrollo, y el más importante, correlacionado con el segundo, fue la introducción de un nuevo método para el logro del avance ingenieril: el método de la ciencia aplicada. Un ejemplo del método anterior fue el desarrollo de la ingeniería eléctrica, lo cual unido a la popularización del motor de combustión interna y a la química originaron la llamada segunda revolución industrial de principios del siglo XX. A partir de entonces emergió una gran cantidad de invenciones que estaban destinadas a tener un efecto de largo alcance en nuestra civilización. El automóvil se empezó a usar extensivamente al hacerse disponibles mejores carreteras. Las invenciones de equipo eléctrico por Edison y del tubo electrónico por DeForest impulsaron el uso de sistemas de potencia y las comunicaciones. Además apareció en escena el avión. A partir de entonces se desarrolló la ingeniería en todas sus especialidades: civil y sus ramas, construcción, transporte, marítima e hidráulica, potencia y sanitaria; mecánica y sus ramas, de maquinaria, de armas, automotriz, de producción, naval, etc; industrial; química y sus ramas; eléctrica y electrónica, con sus ramas de control, comunicaciones, potencia y microelectrónica; de petróleos; aeroespacial; de materiales; nuclear; bioingeniería; de sistemas y toda una serie de especialidades que no es posible mencionar aquí. Casi desde su inicio la ingeniería tuvo dos aplicaciones: una de uso cotidiano y una de uso mítico. El primer mundo conceptual corresponde a la solución de las necesidades civiles y militares que permitió construir todo tipo de obras y espacios para realizar actividades cotidianas y colectivas. La otra aplicación, de carácter 22 Cazadero, Manuel, Las revoluciones industriales, Fondo de Cultura Económica, México, 1995. 33 sacro, se refiere a la fabricación de utensilios y la creación de espacios más complejos y se concretó, sobre todo, en las construcciones de templos y tumbas23. "Algunas culturas materializan sus conceptos geométricos y matemáticos en obras arquitectónicas monumentales, sobre todo en aquellas obras en que domina un pensamiento mágico, donde el mundo cultural está introducido en el universo natural. Mientras que las construcciones domésticas se hacen con materiales naturales perecederos se da más importancia a la manufactura de objetos que por su significado trascendental tienen la finalidad de que perduren en la muerte. Este parece ser el caso de San Agustín".24 Este aspecto mágico de la ingeniería podría indagarse en las obras de todas las civilizaciones, desde los megalitos, los ziggurats sumerios, las mastabas, pirámides y templos egipcios, los templos minoicos, los laberintos cretenses, los monumentos romanos, las catedrales góticas, las pagodas orientales, las pirámides americanas, las tumbas agustinianas, hasta los templos actuales. Esto se puede rastrear en cualquier cultura, antigua o actual. En este contexto se opta por ejemplos de nuestra cultura aborigen lo que permite explicar más de cerca la dimensión mítica de la ingeniería. “Entre los kogi, como en la mayoría de las comunidades indígenas, quien detenta la principal jerarquía religiosa, el mamo, es el depositario del mito en su integridad y del conocimiento en general, se convierte en conservador del orden natural y social a la vez que asume las funciones de arquitecto e ingeniero". “Sólo el mamo está capacitado para innovar la técnica constructiva y teorizar acerca de ella, mientras conserva el velo del mito pues sin él se rompería el equilibrio ecológico del hábitat" “La relación mito-rito-construcción, por analogía, se puede traducir así: teoríatécnica-aplicación, salvando las características propias de cada disciplina y considerando el papel de la experiencia en la formulación teórica".25 Así se entienden afirmaciones como las de Llanos: " Para poder identificar una cultura y posteriormente conocer su actuación histórica con sus transformaciones, tenemos que aproximarnos a sus modelos conceptuales que están contenidos en sus asentamientos domésticos cotidianos (poblados, viviendas, campos de cultivo, talleres, caminos, etc.), y a sus modelos míticos por intermedio del conjunto de 23 El autor cita a: O'Dea, William T., The meaning of engineering, Museum Press, London, 1961. El autor cita a:Llanos V., Héctor, "Espacios míticos y cotidianos en el sur del Alto Magdalena Agustiniano", Ingeniería prehispánicas, FEN, Bogotá, 1990. 25 El autor cita a: Salazar, Luz Amanda, En los orígenes de la ingeniería colombiana, Universidad Nacional de Colombia, Bogotá, 1988, p. 41. 24 34 signos plasmados de manera articulada en sus objetos mágicos, hechos en arcilla, piedra, metal o cualquier otro material". "Pero, los objetos y elementos arqueológicos no se encuentran descontextualizados ni desarticulados, sino que por el contrario éstos pertenecen a espacios culturales, a espacios arquitectónicos [e ingenieriles] cotidianos y míticos. Si al menos identificamos estos modelos arquitectónicos, logramos identificar sus pautas de asentamiento, y por tanto conocer el nivel de complejidad social, política, económica y mágica alcanzado por la cultura que investigamos."26 La acción de la tecnología (y la ingeniería) requiere cuatro elementos: 1- los seres o cosas sobre los que actuar, 2- los conocimientos, 3- la intención y decisión de aprovechar los recursos y conocimientos y 4- la inventiva y la capacidad manual. El primer elemento son los recursos, los otros tres son aspectos de la cultura humana que obran sobre los primeros. Pero, como anota Patiño, "Un recurso puede existir al alcance y no ser aprovechado. las razones son varias, pero se pueden reducir a dos: que no se conozcan las propiedades de las cosas o que se formen tabúes sobre lugares, minerales, plantas o animales, que impiden usarlas a pesar de su presencia. La posesión de técnicas no quiere decir que sean o puedan ser siempre utilizadas". Se encuentra aquí una primera tensión entre la posibilidad técnica y la posibilidad mágica, por eso se indicó que se puede hablar de una ingeniería sagrada y otra secular. Dentro de la primera se dan dos expresiones: la que se refiere a los instrumentos y herramientas artesanales y la que se desarrolló para fines religiosos, como los templos griegos. Por ello se entiende que, inicialmente, la ingeniería tuvo que arroparse y estar contenida en el ámbito de lo sacro para poder tener posibilidades reales, e incluso ilimitadas, de acción. Esto porque la religión, ya antes de que estuvieran disponibles los beneficios generales de la ingeniería, ocupaba un lugar principal en el pensamiento y la acción humanos. Sin embargo, aunque la ingeniería no ha jugado una parte directa en la formulación de ninguna religión, la tecnología ha facilitado enormemente la comunicación de las enseñanzas religiosas a millones de personas. La producción del papiro, del papel y las tintas ha sido de importancia en la diseminación de las creencias religiosas así como de la educación en general. De la misma manera, la construcción de templos e iglesias ha mejorado la vida religiosa. Una culminación de ello es, sin duda, la catedral gótica, cuyo contenido esotérico ha descrito tan bien Fulcanelli cuando dice que: "Es asilo inviolable de los 26 El autor cita a: Llanos V., Héctor, "Algunas consideraciones sobre la Cultura de San Agustín: Un Proceso histórico Milenario en el Sur del Alto Magdalena de Colombia", Boletín Museo del Oro, Banco de la República, No 22, Bogotá, 1988, p. 83. 35 perseguidos y sepulcro de los difuntos ilustres. Es la ciudad dentro de la ciudad, el núcleo intelectual y moral de la colectividad, el corazón de la actividad, pública, el apoteósis del pensamiento del saber y del arte." "Por la abundante floración de su ornato, por la variedad de los temas y las escenas que la adornan, la catedral aparece como una enciclopedia completa y variada -ora ingenua, ora noble, siempre viva- de todos los conocimientos medievales. Estas esfinges de piedra son, pues, educadoras, iniciadoras primordiales... El arte y la ciencia, concentrados antaño en los grandes monasterios, escapan del laboratorio, corren al edificio, se agarran de los campanarios, a los pináculos, a los arbotantes, se cuelgan de los arcos de las bóvedas, pueblan los nichos, transforman los vidrios en gemas preciosas, los bronces en vibraciones sonoras, y se extienden sobre las fachadas en un vuelo gozoso de libertad de expresión...nada más cautivador, sobre todo, que el simbolismo de los viejos alquimistas, hábilmente plasmados por los modestos escultores medievales...".27 Aunque la descripción alquímica de Fulcanelli escapa a la brevedad de estas notas, no puede dejar de recalcarse esta evidente relación entre la obra de ingeniería y la obra hermética, porque las maravillas de la Edad Media contienen la misma verdad, el mismo fondo esotérico, que las pirámides de Egipto, los templos de Grecia, las catacumbas romanas, las basílicas bizantinas. Y ese es el alcance del libro de Fulcanelli, que se expresa así sobre el término gótico: "La explicación del término arte gótico debe buscarse en el origen cabalístico de la palabra... arte gótico no es más que una deformación de argótico. La catedral es una obra de art goth, es pues, una cábala hablada...". 28 Pero el contenido mágico de la ingeniería no sólo existe en los antiguos monumentos, que realmente sobrecogen, como lo han experimentado los viajeros frente a Machu Pichu, en la pirámides de Tikal, bajo la gran pirámide, al pie de Stonehenge o junto a los mohais de la Isla da Pascua. También es una visión mágica la gran muralla china vista por un viajero exterior a la tierra; fue algo más que mágica la llegada del hombre a la luna, son mágicos los equipos médicos que exploran el cuerpo humano y aún el cerebro y la mente. Así a pesar de que la tecnología moderna dice basarse en la desacralización de la ciencia, y de que lleva a la secularización del mundo, sus motivaciones desde el punto de vista humano son las mismas que crearon la tecnología sagrada.29 27 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57. 28 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57. 29 El autor cita a: Claret Z., Alfonso, "Una apreciación evaluativa de la Edad Media desde el punto de vista de las ciencias", Seminario Historia de las Ciencias, Facultad de Educación, Universidad del Valle, 1984. 36 Los sueños del hombre, los que lo han llevado a la situación actual del mundo, pasan por el dominio de la naturaleza: se sueña con el control de la población, con un gobierno mundial, con fuentes permanentes de energía, con el control del clima, con los robots, con los computadores y la educación con ellos, con la transferencia instantánea de masas a distancia, con la aldea global, con la reproducción asexuada, con los seres humanos biónicos (cyborgs), con la ingeniería genética, con el control de la evolución, con la inmortalidad, con la telepatía, con la comunicación entre especies, con la explotación del espacio próximo, con las colonias espaciales, con los vuelos en campos de baja gravitación, con los viajes interplanetarios, con la creación de nuevas tierras, con el control de la gravitación, con la comunicación interestelar, con los viajes interestelares, con los agujeros negros, con los imperios galácticos, con los viajes a través del tiempo, con los cambios alternativos a través del tiempo, sueños todos estos que tienen un elevado contenido tecnológico, vale decir ingenieril. Pero estos sueños nuevos no son recientes en el caso de los ingenieros, al contrario, lo fantástico, lo mágico de la ingeniería comenzó con su atención a las cosas de la naturaleza; en su curiosidad por ellas, en el deseo de aprehensión y vencimiento, más allá de lo que el destino parece hacer concedido al hombre. Toda la mítica antigua, de Sumer al hombre del Perú es abundante en estas pasiones de dominio de la naturaleza, por lo que los ingenieros pueden como entes de razón, pero en más de un momento por lo que pueden como criaturas de magicidad. Baste pensar en el contenido mítico y tecnológico de las figuras de Prometeo o de Icaro, en lo que representan Bochica y Chimizapagua, para apreciar la dimensión mítica de la ingeniería, en su papel de allanadora del camino que conduce el hombre hacia la inmortalidad. Pero hay otro aspecto más concreto de la magia de la ingeniería y es la manera como sus obras se inscriben en el mito, y no precisamente las antiguas. Recordemos cómo se han vuelto míticos el ferrocarril de Antioquia y el Túnel de la Quiebra, la carretera al Mar y el Golden Gate, la torre Eiffel o la torre de Pisa, el Taj Mahal o la represa de Asuán, el Ford T-6 y el Titanic. Lo sagrado de la ingeniería tiene múltiples manifestaciones, que apenas alcanzan a esbozarse en esta introducción. 2.1.2 Historia de la ingeniería en Colombia30 La modernidad de América Latina, y por ende de Colombia, es una modernidad especial desde sus orígenes. A este respecto se plantean varias posiciones. 30 Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia, http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm 37 Una visión que parte de que durante la conquista y la colonia, España y Portugal no se abrían a la modernidad sino que con la Contrarreforma se encerraban en el dogma y la fe única. De ahí el retraso en la sociedad, la política, la tecnología, la economía o la cultura. Las ideologías provenientes de Europa fueron asumidas en la América Latina con el fervor acrítico de una creencia religiosa. Inclusive el marxismo todavía tiene vida en muchos reductos de este "Lejano Occidente". Esto ha sido así hasta ahora porque ..."tenemos una cultura filosófica mimética que repite los planteamientos que formulan los pensadores alemanes, franceses, británicos, etc., sin vincular para nada esas reflexiones con nuestro pasado histórico, con nuestro ethos cultural, con nuestras necesidades y perspectivas"31. Aquí la ciudad, símbolo de lo moderno, no pertenece aún a sus habitantes; se importan y consumen ciencia y procesos tecnológicos, sin una apropiación de sus principios constitutivos, lo que en la práctica se traduce en una dependencia que llega a afectar la misma soberanía nacional; se busca la industrialización pero sin aceptar, en las instituciones su cultura política, e incluso en los rubros presupuestales, la fragmentación y demandas de autonomía individual. Tanto para las "castas señoriales" como para las "vanguardias revolucionarias", la modernidad aparece como un costo demasiado elevado que habría que evitar. En este contexto "Modernización" es el nombre con que se presenta hoy en nuestro país el proyecto neocolonial vinculado a la llamada "revolución postindustrial". Salvo, quizás, que el significado del término se fije desde el horizonte cultural de nuestro pueblo, cosa que - hasta ahora - no sucede. Para ello es necesario entonces, determinar que la mera industrialización nada produciría si no se formulan claras políticas públicas sociales. Esto implica parte de lo que se ha hecho, tratar de tornar eficiente el sector público; el diseño de programas sociales y la participación de las población y sus organizaciones en la implementación de los mismos; la intervención sobre los procesos de concentración del ingreso y un trato cuidadoso de la deuda externa.32 Es decir, que Colombia debe buscar sus vías para perfeccionar su modernización, porque no se trata de modernizar la dependencia, de copiar servilmente el desarrollo de los poderosos o de confrontarlos mediante regresiones invariables y todavía más costosas. Se habla de tres formas principales de modernización: • • 31 32 La modernización equilibrada, en la que no se destruyen los valores tradicionales. Un ejemplo es Japón . La modernización conflictiva donde se plantean grandes antagonimsos con las tradiciones de una parte de la sociedad, como ocurre en los países musulmanes. El autor cita a: Menco M. , José T., "Acerca de la razón aúrea", Informetal, No. 47, Abril 1996, p. 24 El autor cita a: Dussel, Enrique, 1492 El encubrimiento del otro, Antropos, Bogotá, 1992. 38 • La modernización gradual, como trata de hacerse en los países tercermundistas, laboratorios de modernidad donde lo moderno es frágil.33 Aunque Colombia haya pasado de país rural a país urbano - en 1938 el 70% de la población residía en zonas rurales y hoy el 75% vive en las cabeceras -, y en la ciudades las vanguardias pueden haberse trepado a la nave de lo posmoderno, parece un poco forzado tratar de encontrar posmodernidad precisamente en las características de una América Latina que no ha podido acceder a la modernidad. Nuestra modernidad es, cuando más, periférica y mestiza. "En América Latina y en Colombia en particular, lo moderno no puede jamás considerarse como un proyecto agotado. Muy al contrario, diría que el proyecto moderno aún tiene demasiadas porsibilidades,... aunque el sendero de la modernidad no podemos recorrerlo del mismo modo como lo hicieron otros países para bien o para mal".34 Evidentemente, nuestro empeño debe ser la entrada a la modernidad con todo lo que eso implica y no simplemente a la modernización ni mucho menos el creernos posmodernos por influjo de unas artes que no están inscritas en el internacionalismo nivelador de la aldea global. Antecedentes En los orígenes de la ingeniería colombiana, como en todas las demás manifestaciones culturales, hay por lo menos tres raíces: el aporte indígena, el aporte negro y el aporte europeo. Esto debe reconocerse de entrada y aunque sin duda la contribución de los españoles fue dominante, es conveniente no olvidar los otros componentes. Infortunadamente, esto no es lo aceptado por muchos historiadores respetables, por ejemplo Bateman señala : " Hasta donde alcanzan las noticias sobre la cultura indígena de los pueblos que habitaban lo que hoy es el territorio de la República de Colombia, eran muy pocos los conocimientos que tenían de las matemáticas y nula la ejecución de cualquier obra. De estas tribus la más avanzada era la de los Chibchas, que tan sólo conocían un sistema de numeración, de base veinte, pues contaban con los dedos de las manos y de los pies, dándole un nombre a cada número". 35 Es posible que los indios no fueran grandes matemáticos, tema que también podría discutirse, pero afirmar que fue nula la ejecución de cualquier obra es sin duda una temeridad, por decir lo menos, como se demostrará en este trabajo. Un 33 El autor cita a: Hernández, Miguel Angel, "La modernización social y el mundo moderno", Estructura Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MENDNP-FONADE, Bogotá, 1990. 34 El autor cita a: Bateman, Alfredo, "Historia de la matemática y la ingeniería", Ciencia y Tecnología en Colombia, Colcultura, Bogotá, 1978, p. 107. 35 Jaramillo Vélez, Rubén, "La postergación de la experiencia de la modernidad en Colombia", Estructura Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MENDNP-FONADE, Bogotá, 1990. 39 punto de vista similar es adoptado por un historiador oficial como el ingeniero Poveda Ramos cuando señala que : " Todo lo que podemos reconocer a nuestros aborígenes como 'ingenieros' es la construcción de caminos con una técnica muy rudimentaria, aunque a veces con trazados muy audaces; la técnica de la separación del oro de aluviones, la de su fundición y la de su elaboración a mano, la minería de sal de socavón y su evaporación de aguas salinas, la muy primitiva alfarería y los hornos de leña para cocer piezas de barro, la hilatura y el tejido del algodón y de la lana. Pero casi nada más.".36 Algo reconoce Poveda, pues lo que señala no es poco cuando se le mira en detalle, pero muchas más ejecutorias pueden atribuirse a nuestros aborígenes, ya que se han documentado desarrollos técnicos y grandes transformaciones del espacio que fueron realizados en nuestro país antes del siglo XVI, esto es lo que se conoce como ingeniería prehispánica de acuerdo con la interpretación de Mora Camargo, quien señala: " Resulta curioso que se emplee un término que se refiere al arte de aplicar los conocimientos científicos a la técnica industrial, cuando se habla de sociedades del período prehispánico. Sin embargo, se justifica esto último al ampliar la acepción del término, incluyendo dentro de la categoría aquellos procesos de experimentación y acumulación de conocimientos que dieron como reusltado un procedimiento sistemático de manejo y aplicación de técnicas que transformaron profundamente el paisaje".37 Un punto de vista similar es adoptado por Luz Amanda Salazar al indicar que :" ...los conocimientos agrupados hoy bajo la denominación de ingeniería no existieron como una rama autónoma, sino formando parte de una gran amalgama gnoseológica, técnica y mítico-religiosa, pero ante todo práctica. No había distinciones entre unas y otras actividades".38 Esta última afirmación es importante, no sólo para explicar aproximaciones a la ingeniería civil indígena sino a cualquier otro tipo de tecnología autóctona, pues como anota Lechtman : " Debemos reconocer que actividades como el hilado y el tejido o el vaciado de vasos son tecnologías de poder. Es importante también poner de relieve que en todos estos casos estamos ante tecnologías que nos proporcionan información, pues la razón de sus productos iba en gran parte determinada por el poder comunicativo de su mensaje. Con este enfoque, se puede comprender que las tecnologías metalúrgicas de las Américas eran tecnologías de poder -igual que los metales que produjeron los escudos y las espadas de bronce y hierro del Cercano Oriente. La diferencia entre unas y otras reside en como expresaban ese poder - coercivo en un caso, ideológico en el otro 36 El autor cita a: Poveda Ramos, Gabriel, Historia Social de la Ciencia en Colombia, Tomo IV, Ingeniería e historia de las técnicas, Colciencias, Bogotá, 1993, p. 23. 37 El autor cita a: Mora Camargo, Santiago, "Prefacio", Ingenierías prehispánicas, Fondo FEN-Instituto Colombiano de Antropología-Colcultura, Bogotá, 1990, p. 9. 38 El autor cita a: Salazar, Luz Amanda, En los orígenes de la ingeniería colombiana, Publicaciones Facultad de Ingniería - Universidad Nacional de Colombia, Bogotá, 1988, p. 6. 40 -. Fue a través de las mismas tecnologías como se confirió el poder a aquellos que lo impartían y controlaban”.39 Por lo anterior hay que llamar la atención sobre las interpretaciones de la tecnología prehispánica y sus razones, fueran éstas utilitarias, de poder, de compenetración mítico - religiosa o artísticas. Pero el propósito de este escrito no es, obviamente, intentar ese análisis sino mostrar como, en sentido amplio, si hubo una ingeniería prehispánica en Colombia y la argumentación de esta aserto se basará, fundamentalmente, en dos manifestaciones de la ingeniería: la de materiales y la civil. En su vida cotidiana los indígenas prehispánicos, lo mismo que el hombre actual, manipulaban cuerpos de la más variada índole, obtenidos de diferentes materiales. Es decir echaban mano, con eficiencia, de los recursos.40 En América no hubo implementos de hierro hasta la llegada de los europeos, pero se utilizaron de metales como bronce, cobre y oro. Los materiales usados por nuestros antepasados para sus utensilios, fueron de origen mineral, vegetal y animal.41 La tecnología de los materiales tiene que ver pues, con la utilización y manipulación de materiales y de manera notable con el manejo de los metales o metalurgia, que lleva incluso hasta la minería. De otro lado, la ingeniería civil se hace evidente en las construcciones (donde estaría asociada con la arquitectura) y las intervenciones del paisaje. Estas se manifiestan en las redes de caminos, en las modificaciones del suelo para fines agrícolas y en los sistemas de manejo hidraúlico. Así pues el territorio que hoy comprende Colombia ha sido ocupado desde hace 13000 años. Desde el inicio de la utilización de este espacio geográfico, la acción de los grupos humanos ha tenido una fuerte incidencia sobre el paisaje y algunas de las más grandes transformaciones fueron realizadas con anterioridad al siglo XVI, es por eso que estamos de acuerdo con los diversos autores hablan de Ingeniería Prehispánica en nuestro país. En este contexto la palabra ingeniería se justifica si también aquellos procesos de experimentación y acumulación de conocimientos que dieron como resultado un procedimiento sistemático de manejo de aplicaciones técnicas que transformaron el paisaje y propulsaron la evolución de estas sociedades cacicales. 39 El autor cita a: Lechtman, Heather, " Perspectivas de la metalurgia precolombina de las Américas", Precolumbian American Metallurgy, Banco de la República, Bogotá, 1986, p. 26. 40 El ator cita a: Patiño, Víctor Manuel, Historia de la cultura material en la América equinoccial, Tomo V. Tecnología, Instituto Caro y Cuervo, Bogotá, 1992. El autor cita a: Plazas, Clemencia, et al., La sociedad hidraúlica zenú, Banco de la República, Bogotá, 1993. 41 41 El término Ingeniería Prehispánica se hace claro cuando se estudian evidencias como las siguientes: • • • • • • • • Los actos arquitectónicos en el Alto Magdalena Agustiniano Las redes de caminos prehispánicos y las ruinas en la Sierra Nevada de Santa Marta La estabilidad y dinámica agrícola en las sociedades amazónicas que implicaban, además de la roza y la quema, la rotación de los campos más que de los productos y la necesaria regeneración del bosque para mantener la fertilidad Los aterrazamientos artificiales y otras construcciones de uso agrícola en la región Calima El manejo hidráulico que los Zenúes hicieron de los ríos San Jorge y Sinú Los campos circundados de Guarne Las técnicas mineras indígenas, que perduran hasta nuestros días Las avanzadas técnicas de la metalurgia prehispánica, incluídos desarrollos autónomos como las técnicas de la cera perdida.42 Se ve pues que antes de la llegada de la ciencia occidental se contaba con una buena base técnica local bien desarrollada, encaminada sobre todo a la producción artesanal, a las obras arquitectónicas y de ingeniería, y a la realización de tareas agrícolas. La conquista causó un serio desquiciamiento de la tradición técnica local y llevó a una significativa pérdida de variedad; pese a lo cual la tradición tecnológica nacional logró sobrevivir de algún modo u otro. Entre los primeros cincuenta y cien años de la conquista se produjo un complejo proceso de aculturación, que comprendió un mutuo intercambio de conocimientos, productos y técnicas. Hay que recordar que la conquista se realizó durante el Renacimiento, cuando la revolución científica se encontraba en su embrión, y que la colonización de América habría de hacer importantes aportes a la transformación de Europa durante el período de la revolución científica. La contribución de los negros El aporte de la raza negra a la formación de nuestra cultura es ancho y profundo en la mayoría de sus manifestaciones, sin embargo en el aspecto científico y tecnológico fue bastante limitado43. De acuerdo con Jaramillo Uribe en el origen 42 El autor cita a: Ingenierías prehispánicas, Santiago Mora (ed.), Fondo Fen, Bogotá, 1990. Precolumbian American Metallurgy, Clemencia Plazas (ed.), Banco de la República, Bogotá, 1986. Echavarría, A., "Metalurgia Prehispánica en América", Informetal, Nos 30, 31 y 32, 1992. Espinoza, Iván D. y Duque Marcela, "La explotación aurífera en la Antioquia Prehispánica", Informetal, Nos. 36 y 37, 1993. 43 El autor cita a: Nieto Arteta, Luis Eduardo, Economía y cultura en la historia de Colombia, Tiempo Presente, Bogotá, 1975. 42 tribal africano de la población colombiana, predominan los tipos de origen septentrional y los congoleses….44 Los pueblos de Guinea, de la cuenca de Senegal, del Níger y del Sudán dieron nacimiento a culturas de muy alto grado de desarrollo. Conocieron la ganadería vacuna, el uso del camello, el trabajo del hierro y el bronce, la manufactura de tejidos y tuvieron un arte (esculturas de Benin y Dahomey), una religión y una organización política compleja. En sus áreas se formaron imperios como el Malí y el Songoi y sus contactos con el norte de Africa llevaron hasta ellos influencias del Islam. Otras culturas, como las de los pueblos congos, hotentotes y bosquimanos, practicaron la agricultura de azada y la ganadería vacuna, y conocieron la técnica del hierro, pero no alcanzaron el refinamiento de las culturas septentrionales. Pero todo esto se perdió con la trata y a pesar del influjo negro en la economía y la sociedad, su incidencia tecnológica y científica es irrelevante. La tradición científica y tecnológica Las condiciones tecnológicas impuestas en la conquista y completadas en la colonia perduraron hasta la llegada de la Ilustración en la segunda mitad del siglo XVIII, que precipitó el inicio de los movimientos independentistas.45 Después de la Independencia la situación no varió mucho en el aspecto tecnológico hasta 1840, pues antes de la primera mitad de esa década no existía en la Nueva Granada ni la ingeniería civil moderna ni una base económica que la sustentara, a pesar de la presencia esporádica de técnicos extranjeros.46. A mediados del siglo, esta situación comenzó a cambiar. Hacia finales de la década de 1830 Lino de Pombo, José Ignacio de Márquez y el general Herrán argumentaron a favor de las obras publicas utilizando ingenieros nacionales. Con el ascenso de Mosquera a la presidencia en 1845, aumentaron estos programas y ya durante la década de 1850, el concepto de ingeniería como profesión comenzó a propagarse dentro de las clases dirigentes del país. Durante las décadas de los 70 y 80 el inicio de la construcción de ferrocarriles dió a los jóvenes ingenieros del Colegio Militar mayores oportunidades para ejercer su tarea profesional, pero hasta entonces Colombia se encontraba inequívocamente en una relación colonial con respecto a los centros científicos de Occidente 47. 44 El autor cita a: Jaramillo Uribe, Jaime, Ensayos sobre historia social colombiana, Universidad Nacional, Bogotá, 1968. 45 El autor cita a: Silva, Renán, Universidad y sociedad en el Nuevo Reino de Granada, Banco de la República, Bogotá, 1992, p. 443. 46 El autor cita a: Poveda Ramos, Gabriel, Minas y mineros de Antioquia, Banco de la República, Medellín, 1981. 47 El autor cita a: Bateman, Alfredo D., "Historia de las matemáticas y la ingeniería", Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.), Colcultura, Bogotá, 1978, p. 107., Obregón Torres, Diana, Sociedades científicas en Colombia 18591936, Banco de la república, Bogotá, 1992. 43 En esta década personajes como Pedro Alcántara Herrán y Mariano Ospina Rodríguez representan la élite ilustrada que trató de introducir una nueva orientación técnica en la clase alta mediante la importación de instructores extranjeros de ciencias y el envío de jóvenes de familias prestantes a los centros científicos del exterior. En ambos casos, el interés declarado de la élite se orientaba más a lo práctico, lo técnico y lo productivo que hacia lo teórico, lo científico y lo intelectual. Si bien no estaban en contra de promover la formación de científicos creativos, su principal preocupación era la de crear un cuerpo de técnicos y empresarios que pudieran ayudarles a ponerse al día, económicamente, con los más avanzados países del mundo occidental. Era necesario inculcar una inclinación científica hacia el conocimiento, haciendo más énfasis en el desarrollo el razonamiento que en la memorización de verdades concluyentes. Existía, por supuesto, un límite para el entusiasmo por el racionalismo científico. Los conservadores neogranadinos rechazaban vigorosamente los aspectos ateo - materialistas de la Ilustración occidental. En su calidad de élites tradicionales, si bien en vías de modernización, deseaban adueñarse sólo de aquellas ideas nuevas que consideraban necesarias para el progreso económico de su país48. Por ello resulta tan característico y sui generis ese sincretismo colombiano, esa modernización en contra de la modernidad, que permitirá en los primeros decenios del siglo avanzar en el terreno infraestructural sin variar sustancialmente la concepción tradicionalista o la visión del mundo y la ideología, que desde la firma del Concordato de 1887 estuvo sometida al control de la iglesia 49. La Sociedad de Naturalistas Neogranadinos se creó en 1859 y sus relizaciones, aunque escasas, están documentadas, su existencia se debió en gran parte a la labor del doctor Ezequiel Uricoechea. Durante las décadas de los 70 y 80 el inicio de la construcción de ferrocarriles dió a los jóvenes ingenieros del Colegio Militar mayores oportunidades para ejercer su tarea profesional, pero hasta entonces Colombia se encontraba inequívocamente en una relación colonial con respecto a los centros científicos de Occidente50. El autor cita a: Safford, F., El ideal de lo práctico, El Ancora Editores, Bogotá, 1989. El autor cita a: Corredor, Consuelo, "Modernismo sin Modernidad", Controversia, No 161, Bogotá, 1990. Parra, Lisímaco, "Modernidad y Ciencia", Estructura Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MEN-DNP-FONADE, Bogotá, 1990, p. 561. 50 El autor cita a: Poveda Ramos, Gabriel, "Los ferrocarriles y la ingeniería", Revista Universidad de Antioquia, No 206, Oct-Dic, 1986, p. 5. Obregón Torres, Diana, Sociedades científicas en Colombia 1859-1936, Banco de la república, Bogotá, 1992. 48 49 44 Por esa época existían ya la Facultad de Matemáticas e Ingeniería de la Universidad Nacional en Bogota, la Facultad de Ingeniería de la Universidad del Cauca y la Escuela de Minas de Medellín. Los ingenieros antioqueños eran lo suficientemente numerosos como para mantener una comunidad científica, la cual tenía unas tendencias profesionales muy contrastantes con las de los ingenieros del oriente del país, quienes dominaban la Sociedad de Ingenieros de Bogotá. Estos eran predominantemente burócratas, por su residencia en Bogotá tenían la pista de los empleos técnicos gubernamentales como la topografía, la construcción o la inspección de obras públcas y el magisterio. De otro lado los ingenieros de Antioquia Cauca eran menos politizados y burocráticos, confiaban más en la empresa privada, muchas veces la suya propia. Otra diferencia entre estas concepciones de la ingeniería estribaba en que mientras los ingenieros de provincia pensaban en soluciones autóctonas para los problemas nacionales, como el cambio por materiales nativos o los inventos mecánicos adaptados localmente, los ingenieros de Bogotá lucían su más grande originalidad en las matemáticas puras. Todas estas diferencias empezaron a diluirse después de la Segunda Guerra Mundial con la expansión de la ingeniería y el surgimiento de Facultades de Ingeniería, en muchas de las ramas, en todo el país51. TENDENCIAS En la actualidad existe en Colombia más de 69 especialidades de la ingeniería con las más diversas orientaciones en lo científico, lo tecnológico y lo metodológico. Aunque el ICFES y la Asociación Colombiana de Ingeniería tratan de unificar criterios, es tal la multiplicidad en el tamaño, calidad y estilo de trabajo, que quizás apenas la autoevaluación y la acreditación contempladas en la ley 30 de la educación superior, lograrán clasificar adecuadamente las carreras de ingeniería. Además las políticas de Ciencia y Tecnología, especialmente en lo relativo a la formación de doctores, y los nuevos rumbos de la tecnología mundial, decantarán sin duda esa enorme variedad, que es el signo predominante de la ingeniería actual en Colombia. A partir del siglo XIX se ha hecho cada vez más patente la interacción entre el sistema general de la sociedad y el subsistema tecnológico. La sociedad impulsa o deprime el desarrollo de la tecnología mediante factores económicos, orientaciones políticas, previsión de recursos humanos, expectativas de utilización, 51 El autor: Safford, Frank, "Orígenes de la profesión de ingeniero en Colombia", Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.), Colcultura, Bogotá, 1978, p. 57. 45 y aún las actitudes conductuales de los individuos. Se comprende así que cualquier análisis prospectivo de la ingeniería pasa por una mirada a las tendencias tecnológicas globales más importantes, entre las cuales están las siguientes: • • • • • • La consolidación de la onda electrónica en el siglo XX, que ha permeado todas las áreas del conocimiento y las diferentes aplicaciones de la producción y los servicios. Se manifiesta en continuo reemplazo de mecanismos por automatismos cibernéticos, etc.; esto seguirá teniendo un impacto en la economía, en la industria, en los procesos de manufactura, en la formulación de los perfiles ocupacionales y en general, en la organización del trabajo. La profundización del uso de la informática en todas las dimensiones, lo cual ha ampliado su radio de acción: desde las actividades empresariales de alta dirección hasta las operativas; desde las de mercadeo hasta la difusión global del conocimiento, la educación formal, no formal y virtual. La aparición de redes de comunicación global, entre las cobran las de computadores en todas sus modalidades (Internet). Por ejemplo en el mercadeo, en la manufactura, en el transporte, en la industria, en el trabajo de laboratorio, en la cultura, en la investigación, etc. El surgimiento de tecnologías alternativas para impedir los crecientes deterioros del ambiente, que tanto han preocupado al mundo actual. Si bien el desarrollo industrial ha transformado la naturaleza en su conjunto, los balances entre ventajas y desventajas a largo plazo comienzan a influir en las alternativas de preservación del medio ambiente. La consolidación de la onda tecnológica apoyada en la biología, de lo cual la ingeniería genética o biotecnología son ejemplos. Esta tendencia se fortalece con las permanentes simbiosis entre tecnologías de punta, lo cual está dando lugar a nuevas áreas de trabajo y a la difusión de nuevos productos. La emergencia de metodologías blandas, que son simbiosis entre técnicas sociales y aplicaciones científicas52. Las anteriores tendencias tecnológicas indican que el ambiente en el cual trabajarán los ingenieros del siglo XXI estará caracterizado por las industrias basadas en el conocimiento, con productos de alto valor agregado, una gran dependencia sobre la aplicación de la ciencia básica en el desarrollo de productos, y un proceso de desarrollo - diseño - manufactura basado en elevados niveles de simulación y de flujo de información. 52 El autor cita a: Cortés A., Carlos, "Planes y Prospectiva de la Facultad de Ingeniería de la Universidad Nacional", Ingeniería e Investigación, NO 37, 1998, p. 111. 46 Esto no quiere decir que las industrias que tienen que ver con los recursos naturales, la infraestructura y la calidad del ambiente vayan a debilitarse. No, es que las economías avanzadas y en desarrollo en última instancia se basarán "en el poder del cerebro" y las economías de escala y la automatización no serán suficientes para sobrevivir. Además el rápido crecimiento de las tecnologías que diseminan rápidamente el conocimiento y proporcionan fácil acceso a la información y los datos alterarán la forma y posibilidad de la sustancia del trabajo ingenieril en la próxima generación. El ambiente en el siglo XXI será de constante innovación y velocidad con énfasis en la calidad. La cultura corporativa demandará la búsqueda inflexible del aumento de la productividad, para lograrlo, se ofrecerá un ambiente en el cual la gente se reúne constituyendo equipos, que deben ser estimulados, habilitados y recompensados. El ambiente de trabajo será más exigente que hoy, debido a la economía de la información. Dado que las fuentes de riqueza son el conocimiento y las comunicaciones más que los recursos naturales y el trabajo habrá una dura competencia que afectará la economía global. Para sobrevivir en esa atmósfera cada uno tendrá que ser tan bueno como el mejor del mundo. Sin embargo, ni el hardware ni el software son panaceas a nuestros problemas, y los pueden resolver bien o mal. Su efecto depende de lo bien que utilicemos la tecnología y sus fines. La revolución es controlable pero puede hacerse regresiva si no la controlamos o lo hacemos mal. El futuro depende mucho de los problemas que decidamos atacar y de lo bien que utilicemos la tecnología para resolverlos53.[70]. Estas condiciones sociales y el ambiente de trabajo de los ingenieros- la necesidad de comunicar, la velocidad a la cual ocurren los cambios, la presión incesante para aumentar la competitividad - harán el ambiente futuro más áspero y denso que cualquiera que haya visto hasta ahora. Los ingenieros deberán exhibir excelentes habilidades técnicas, pero existe la necesidad real de desarrollar conocimientos globales en las mentes de los estudiantes de hoy: conocimiento de otras culturas, competencia en lenguas extranjeras, idea sobre los tratados mundiales y las agencias internacionales. La ética es fundamental por las consecuencias, cada vez más impactantes, de las decisiones de los ingenieros en cualquier campo, quienes deberán ser capaces de enfrentar el imperativo tecnológico y estar en capacidad de poner la dignidad humana por encima del dios mercado y la voracidad neoliberal. 53 El autor cita a: Ackoff, Russel L., Rediseñando el futuro, Limusa, Mexico, 1995 p. 21 47 Las siguientes son algunas características generales, necesarias en los ingenieros del futuro: habilidades de grupo, incluyendo colaboración y aprendizaje activo, habilidades de comunicación, liderazgo, perspectiva en sistemas, entendimiento y apreciación de la diversidad de las personas, apreciación de las diferentes culturas y prácticas comerciales y el entendimiento de que la práctica de la ingeniería ahora es global, perspectiva interdisciplinaria, compromiso con la calidad, la oportunidad y el mejoramiento continuo, investigación de pregrado en experiencias de trabajo en ingeniería, entendimiento de los impactos sociales, económicos y ambientales en la toma de decisiones en ingeniería y ética54. Que los ingenieros tengan estas características es apremiante porque el número de ingenieros en el mundo se duplica cada 10 años55. La mayoría del aumento ocurre en la cuenca del Pacífico y otros países asiáticos que han desarrollado estrategias para ello. La población corriente y los datos de producción sugieren que el número global de ingenieros en la próxima generación será, en su mayoría, de origen asiático. La contribución de India será un factor significativo, pero la contribución de Latinoamérica no se ha determinado a la larga56. Lo que se anota de la ingeniería del futuro debe revertir la situación actual, en que es una profesión invisible, los mayores "agentes de cambio de la civilización" están impelidos a convertirse en actores reales y centrales de la construcción del mundo que queremos. El problema central en Colombia es el mismo del mundo, la capacidad tecnológica disponible para superar los retos de una producción creciente, se instala en los círculos del privilegio para aumentar las diferencias internas. Los últimos desarrollos de la informática conviven con el analfabetismo, los rascacielos con los tugurios, los tractores de alta potencia con las azadas y los automóviles último modelo se desgastan en caminos de herradura. Existe tecnología celular para unos pocos en tanto que no hay telefonía rural para muchos y las piscinas suntuosas se construyen al lado de barrios de invasión sin agua potable ni alcantarillado. 54 Eel autor cita a: Smith Jr., Clifford V., "La educación en ingeniería para la competencia en el siglo XXI", Conferencia Mundial sobre educación en ingeniería y líderes en la industria, París, 1996, ACOFI, 1997, P. 175. 55 El autor cita a: Ferro B., Jesús, "Estrategias educativas para la ingeniería del año dos mil", Visión de la Universidad ante el siglo XXI, Ediciones Uninorte, Barranquilla, 1996, p. 96. 56 El autor cita a: Clarke, R. W. and Kulacki, F. A., "International Engineering: Tins our Engineer School Never Told You", Mechanical Engineering Education for Global Practice. Proceedings of the 1997 ASME Mechanical Engineering Department Heads Conference, American Society of Mechanical Engineers, New York, 1997, p. 27. 48 He ahí la tarea de nuestra ingeniería: estar al tanto, e incluso adelantarse, a los últimos desarrollos mundiales sin olvidar las grandes necesidades básicas de nuestro pueblo, las cuales deben satisfacerse sin atentar contra el ambiente y de una manera eficiente y eficaz. Un enorme reto sin duda, por eso debemos tener muy claro el rumbo que debemos fijar a nuestra facultad y el tipo de ingenieros que se forma en ella. 2.2 Historia de la Electrónica 2.2.1 Historia de la Electrónica en el mundo57 Introducción Gracias a la electrónica se llevaron a cabo los descubrimientos científicos que tuvieron inmediata aplicación práctica y viceversa, las aplicaciones prácticas fomentaron la investigación científica para resolver diferentes problemas, lo cual a su vez abrió nuevos horizontes científicos. Se reseña la curiosidad científica que ha tenido el hombre desde tiempos inmemoriales por las propiedades de la electricidad El conocimiento científico de la electricidad dio lugar, inmediatamente, a aplicaciones tecnológicas importantes. Éstas incluyen al telégrafo, con el que el hombre pudo comunicarse por medios eléctricos, y a las máquinas eléctricas, o sea, motores eléctricos y generadores de electricidad. De esta forma, el hombre tuvo a su disposición fuentes de corriente eléctrica de gran intensidad, hecho que cambió drásticamente la vida, dando lugar a una revolución en la forma de vida de la humanidad, cuyas consecuencias fueron la iluminación eléctrica y el teléfono, entre otras. Historia de la electrónica. • Nacimiento de la electrónica: Como hacia el fin de siglo XIX ya se había inventado el micrófono, que transforma una señal acústica en una eléctrica. Por otro lado, ya se había inventado el audífono, aparato que transforma una señal eléctrica en una acústica. En este sistema las voces se distorsionaban mucho, la energía con que se emitía la onda era muy pequeña. Además, el hecho de que la fracción de energía que llegaba al 57 http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/electr.htm http://www.cft.gob.mx/html/la_era/magic/es1.html http://infodev.upc.edu.pe/ieee/La%20Rama/articulos/moran1.htm http://www.airpower.maxwell.af.mil/apjinternational/apj-s/1trimes01/campbell.htm 49 receptor era muy pequeña, hacía difícil su funcionamiento para distancias grandes. La solución más satisfactoria fue lograda una vez que se inventó el tubo al vacío. Desde el siglo XVIII algunos investigadores habían descubierto que si se calienta una superficie metálica, ésta emite cargas eléctricas. Sin embargo, fue Thomas A. Edison quien volvió a "desenterrar" este efecto en 1883, cuando trataba de mejorar su lámpara incandescente. Este efecto, que se llamó "efecto Edison", también recibe el nombre de termiónico. Fue el mismo Edison quien inventó un dispositivo en el cual la carga eléctrica emitida por la superficie metálica caliente (llamada cátodo) es recogida por otra superficie fría (llamada ánodo), lográndose de esta forma una corriente eléctrica. En la figura 1 se muestra cómo Edison construyó su dispositivo. Edison encerró los dos electrodos, el ánodo y el cátodo, dentro de un tubo de vidrio al vacío que también utilizaba para elaborar sus lámparas de iluminación. Por otro lado, en el año de 1897 el físico inglés J. J. Thomson (1856-1940) descubrió la existencia de una partícula eléctricamente cargada, el electrón. Thomson demostró experimentalmente que el electrón tenía carga eléctrica negativa. En el año de 1906 Thomson recibió el Premio Nóbel de Física por su descubrimiento. En 1899 J.J. Thomson estableció que las cargas que se liberaban al calentar la superficie metálica eran electrones. En 1903 el físico británico John Ambrose Fleming (1849-1945) fue el primero en encontrar una aplicación práctica del efecto Edison. Fleming era asesor de una compañía telegráfica y le habían encomendado la tarea de encontrar un mejor detector de ondas electromagnéticas. L a compañía utilizó como detector de ondas un cohesor, no muy eficaz. A partir de 1900, en algunos diseños de receptores, se usaban cristales de galena o de pirita de hierro como detectores que por cierto fueron las primeras componentes de estado sólido empleadas en electrónica. Fleming recordó su trabajo anterior sobre el efecto Edison, y encontró una solución en este tipo de lámpara eléctrica. El avance más importante en el desarrollo de la electrónica fue dado por el físico estadounidense Lee de Forest (1873-1961), en 1906, al introducir en el tubo al vacío un tercer electrodo reticulado, llamado rejilla, que permite el paso de electrones. Esta rejilla se coloca entre el cátodo y el ánodo, como se ve en la figura 2. De Forest llamó a su dispositivo audión, aunque más tarde se le llamó tríodo. Tuvo que trabajar con diferentes dispositivos antes de conseguir el tríodo. El tríodo lo hace incorporar la señal y amplificar su intensidad. A partir de 1907, hasta 1912, De Forest trabajó en el diseño de un sistema de 50 radio, muy rústico, el cual trató de vender a los aficionados de la radio y a las fuerzas armadas. También formó una compañía para poder competir con la ATT en comunicaciones de larga distancia. Su radio podía transmitir y recibir voces, pero no pudo conseguir que sus triodos amplificaran en forma confiable. Hacia 1912 De Forest había alcanzado cierto control en el comportamiento del tríodo. Redujo la amplificación(el voltaje de la batería del ánodo). Esta reducción la compensó conectando varios triodos. Así construyó un amplificador, De Forest propuso su venta a la ATT. Cuando De Forest hizo la demostración de su amplificador a la ATT en octubre de 1912, los físicos de la empresa, Harold D. Arnold, Frank Jewett y Edwin Colpitts inmediatamente se percataron de que ese sistema era lo que buscaban. Dirigido por Arnold, la ATT inició un proyecto de investigación para entender y dominar los principios físicos del funcionamiento del tríodo y así poder construirlo eficazmente. En el transcurso de dos años Arnold y un grupo de 25 investigadores y asistentes de la ATT transformaron el débil y no muy confiable audión, en un amplificador muy potente y seguro. El tríodo así mejorado hizo posible que el servicio telefónico abarcara de costa a costa a Estados Unidos. Otras compañías hicieron progresos significativos y la electrónica con tubos al vacío se desarrolló de manera impresionante de 1912 a 1932. Durante la primera Guerra Mundial se usó mucho la radio y se construyeron tubos al vacío en grandes cantidades. Se utilizaron en 1915, en la radiotelefonía trasatlántica, para comunicar a Francia y Estados Unidos. A principios de la década de 1930 se construyeron tubos al vacío con más elementos entre el cátodo y el ánodo; éstos fueron el tetrodo, el pentodo. • Desarrollo de la Radio. Un elemento crucial para el desarrollo de la radio fue el oscilador. Este circuito fue inventado en 1913 por el físico estadounidense Edwin Howard Armstrong (18901954). Es un circuito basado en un tríodo, de cuya salida se toma una parte de la corriente que se vuelve a alimentar a la entrada del tríodo, formando un circuito de retroalimentación. El primer programa público de radio fue emitido en Inglaterra el 23 de febrero de 1920. Así nació radio. En 1933 Armstrong inventó otro tipo de emisión de señales de radio: el de frecuencia modulada (FM). La transmisión por FM, iniciada comercialmente en Estados Unidos en febrero de 51 1941, comparada con la amplitud modulada (AM), tiene la ventaja de que sus transmisiones no se alteran con las perturbaciones, ya sean atmosféricas o producidas por el hombre, que afectan la amplitud de la onda pero no su frecuencia. En el sistema de FM no se presenta el llamado fenómeno de "estática", que es un ruido sistemático que se oye en emisiones de AM. La radio como la conocemos en la actualidad fue la creación de tres hombres: Lee de Forest, autonombrado "padre de la radio", cuya invención del tríodo hizo posible el nacimiento de la electrónica moderna; Edwin Howard Armstrong, inventor del circuito retroalimentador (y del oscilador) así como de la frecuencia modulada, que forman la base de la transmisión y recepción de los sistemas actuales de radio (y de televisión); finalmente, David Sarnoff, quien encabezó la Radio Corporation of America (RCA). • Desarrollo de Televisión. Hace alrededor de un siglo, varias personas empezaron a considerar la posibilidad de enviar imágenes por medios eléctricos (o sea, lo que hoy en día hace la televisión). En 1884, el alemán Paúl Nipkow solicitó una patente para un sistema de televisión que él denominó "telescopio eléctrico". Este rústico aparato era dispositivo electromecánico que utilizaba una fotocelda para transformar luz en corriente eléctrica. La imagen no reproducía los detalles finos. Variaciones de este se diseñaron hasta 1930 sin que realmente tuviesen éxito. En una reunión de la Sociedad Roentgen, efectuada en Inglaterra en 1911, el ingeniero eléctrico A. A. Campbell Swinton presentó un esquema de sistema de televisión, que es el que se usa en la actualidad. La escena que se desea transmitir se enfocaría sobre una placa hecha de material no conductor de electricidad, por ejemplo de mica, la cual se encuentra dentro de un tubo de rayos catódicos. Este tubo fue inventado a mediados del siglo XIX por William Crookes para estudiar las propiedades de las corrientes eléctricas a través de gases. Para el receptor, Campbell Swinton escogió un tubo de rayos catódicos diseñado en 1897 por Ferdinand Braun, de la Universidad de Estrasburgo, en ese entonces parte de Alemania. Este tubo, llamado cinescopio, es de vidrio al vacío y tiene en su fondo una pantalla de material fluorescente, como fósforo, que emite luz cuando un haz de electrones incide sobre él. A medida que el haz electrónico barre la superficie de la pantalla, ésta se va iluminando punto por punto. Esta fue una idea de Campbell Swinton que casi describe la actual tecnología de la televisión. Campbell Swinton creó el diseño conceptual sobre el cual personas trabajarían. Fue Vladimir Zworykin (1889-1982), un ingeniero ruso inmigrado a Estados Unidos en 1919 quien construyó la primera cámara práctica. En 1924 mostró a la 52 compañía Westinghouse una versión primitiva, pero que funcionaba. Las imágenes eran débiles y vagas, casi sombras. Los directivos de la empresa no se impresionaron tampoco cuando Zworykin les mostró una versión mejorada en 1929. A quien sí impresionó Zworykin fue a David Sarnoff, director de otra compañía, la RCA Victor, quien creía en la promesa comercial de la televisión. Zworykin fue contratado en 1930 por la RCA como director de investigación electrónica y en 1933 finalmente convenció a Sarnoff de que su cámara, a la que llamó iconoscopio (del griego iekon, imagen, y skopon, ver), y su cinescopio eran satisfactorios. Campbell Swinton había propuesto que fueran de rubidio, pero Zworykin descubrió que era mejor cubrir plata con óxido de cesio. La RCA probó por primera vez un sistema completo en 1933. Transmitió imágenes de 240 líneas a una distancia de siete kilómetros en Colligswood, Nueva Jersey. Aumentaron el número de líneas; actualmente se usan 525. En 1938 la RCA tuvo listo un sistema de televisión en funcionamiento. Por problemas burocráticos el gobierno no aprobó la licencia de funcionamiento hasta julio de 1941. Durante los años de la segunda Guerra mundial, científicos e ingenieros dirigidos por Zworykin desarrollaron una cámara 100 veces más sensible que el iconoscopio, al terminar la guerra, la RCA reinició sus trabajos en el campo de la televisión. • El Radar y la Batalla de Inglaterra. Desde principios de la década de 1980, tanto Gran Bretaña como Francia continuaban un programa muy importante de desarme que habían empezado la década anterior. Alemania, contraviniendo lo estipulado en el Tratado de Versalles inició, con el advenimiento del régimen nazi, un amplio programa de rearme. En pocos años se desarrolló un arma muy poderosa para su época, el bombardeo aéreo. O cada país desarrollaba un cuerpo de bombarderos aéreos, o se llevaba a cabo un desarme general. Gran Bretaña optó por esto último, pero no Alemania. En la década de 1930 fue muy popular el concepto del rayo de la muerte: podía causar incapacidad física, mental y aun la muerte. Durante dicha década hubo buen número de personas que pretendieron haber inventado y construido dispositivos que producían diferentes tipos de rayos. Análisis mostraban que siempre había algún truco. Se construyó un pequeño sistema acústico, que daría una señal cuando recibiera los sonidos producidos por los aviones, no era funcional ya que no distinguía entre el ruido producido por el atacante y otros sonidos, automóviles, animales. H. E. Wimperis, jefe de Investigación Científica e Industrial del Ministerio, llamó al 53 doctor Robert Watson Watt, físico y director del Laboratorio de Investigación de Radio y le preguntó sobre el prospecto de desarrollar algún rayo de la muerte. Watson Watt regresó a su laboratorio y propuso lo siguiente al doctor Arnold Wilkins, físico y ayudante suyo: calcule la cantidad de potencia de radiofrecuencia necesaria para elevar la temperatura de 4 litros de agua de 35.5º C a 41ºC a una distancia de 5 km y a una altura de 1 kilómetro. Su cálculo mostró que se necesitaba generar una potencia enorme era claro que no era factible un rayo de la muerte por medio de la radio. Wilkins le dijo a Watson que los ingenieros de la Oficina de Correos se habían dado cuenta de perturbaciones en la recepción de muy altas frecuencias cuando algún avión volaba en la vecindad de sus receptores. Esta observación (enero de 1935) dio lugar al inicio de una serie de hechos que culminaron con la invención del radar. Se inició la verificación experimental, que se encomendó a Wilkins, quien con su rudimentario equipo pudo detectar y dar la trayectoria que había seguido un avión. Los primeros aspectos que resolvieron fue la presentación visual de la información recibida, emplearon un tubo de rayos catódicos. Se le hicieron muchas modificaciones para que pudiera detectar tanto la distancia a la que se encontraba un avión, sino también su altura. La mayor parte del sistema estaba completo en septiembre de 1938, cuando ocurrió la crisis de Munich. Se instalaron en los aviones ingleses dispositivos electrónicos que al recibir la onda enviada desde tierra emitían a su vez una señal especial que los identificaba como amigos. En agosto de 1939, tres semanas antes del inicio de la segunda Guerra Mundial, Gran Bretaña contó con un sistema de detección de aviones. Con ayuda del radar, los ingleses podían detectar la salida de los aviones alemanes desde sus bases situadas en países conquistados, como Francia y Bélgica. • Integración de chips, computadoras... El transistor, se empezó a utilizar a finales de la década de 1940, se consideró en su época como una maravilla de lo compacto, comparado con el tamaño de los tubos al vacío. A partir de 1950 el tamaño de los dispositivos electrónicos se ha reducido. En 1960, se empezó a usar la palabra microelectrónica, un bloque (chip) de silicio de un área de 0.5 cm² podía contener de 10 a 20 transistores con varios diodos, resistencias y condensadores. Hoy en día tales bloques pueden contener varias docenas de miles de componentes. 54 A medida que la microtecnología electrónica se desarrolló, se aplicó a computadoras comerciales. Se diseñaron diferentes dispositivos portátiles como las calculadoras. Cada componente que se usaba en un circuito electrónico estaba hecho de materiales que tuviesen las características requeridas para su funcionamiento. Se utilizó el tungsteno para los cátodos de un tubo al vacío, cerámica para condensadores, carbón para resistencias. Hacia mediados de la década de 1950 se construyeron circuitos electrónicos en laboratorios industriales de dos compañías estadounidenses, Texas Instruments y Fairchild Semiconductor. De esta manera se han construido un sinnúmero de aparatos y dispositivos microelectrónicos que distinguen la época en que vivimos: relojes de mano, robots, microcomputadoras y otros. Desarrollo de la electrónica en el mundo. En computación, el hardware configurable, la computadoras ópticas y la computación molecular. En las computadoras ópticas haces de luz remplazan a las conexiones metálicas (de cobre). Estas serán de mayor capacidad, más rápidas, de menor consumo energético y ocuparan menos espacio. En transporte terrestre, los trenes voladores MAGLEV ( Magnetically Levitated Vehicles), los automóviles eléctricos y electrónicos, y los automóviles inteligentes serán las tecnologías responsables del desplazamiento rápido y seguro de las personas. Los trenes voladores son vehículos que corren a velocidades cercanas a los 500 Km/h. Electroimanes de gran potencia se usan para generar las fuerzas de suspensión, conducción, tracción y frenado del tren. El tren japonés HSST con suspensión magnética repulsiva, y el Transrapid alemán con suspensión magnética atractiva, son dos prototipos MAGLEV que en la práctica han demostrado que velocidades cercanas a los 500 Km/h son posibles. En los automóviles eléctricos, los motores de combustión son remplazados por motores eléctricos alimentados por baterías recargables. Estos automóviles eléctricos son más eficientes (en términos de energía/distancia) y más limpios (no emiten gases contaminantes) que los vehículos con motores de combustión. Estos surgen como una respuesta necesaria a la contaminación ambiental y al agotamiento de las reservas mundiales de petróleo. En los automóviles electrónicos, las conexiones mecánicas son remplazadas por cables eléctricos que conectan las diferentes partes del vehículo. Los automóviles inteligentes son vehículos capaces de cooperar con el conductor (copiloto automático) o capaces de asumir todas las funciones del conductor (piloto automático). Estos vehículos vendrán 55 equipados con sistemas de navegación basado en satélites (sistemas GPS), con video-cámaras para "ver", con micrófonos para "escuchar" y con parlantes para "hablar". Junto con los automóviles inteligentes se tendrán también las pistas inteligentes que se encargan de conducir vehículos sin la necesidad de un conductor. Las pistas inteligentes se han planteado como una solución a las insoportables congestiones de tránsito vehicular. El Sistema de Autopistas Automáticas de Alta Velocidad (Automated Highway System) que se viene desarrollando en California, EE. UU. En el campo de las comunicaciones, las redes completamente ópticas se impondrán como la tecnología más eficiente para transmisiones intensivas en data (voz, fax, video) entre millones de terminales. En teoría una fibra óptica simple puede transmitir a una velocidad de 100 veces superior a la velocidad de transmisión en cables de cobre. La tecnología láser ha evolucionado rápidamente desde su comienzo a mediados de 1950. El Sistema de Láser Aerotransportado (ABL) y Sistema Láser Basado en el Espacio (SBL) son precursores de una clase enteramente nueva de armamento. El aprovechamiento del láser para la desviación de escombros en orbita es algo está en investigación. La desviación con láseres de asteroides, meteoritos, y cometas es probablemente la misión espacial internacional más importante para nuestro planeta: la Tierra, en el siglo que comienza. La Tierra ha recibido impactos varias veces en el pasado y recibirá impactos semejantes en el futuro. Las máquinas inteligentes, los materiales inteligentes y el software inteligente serán una realidad considerando la gran rapidez que tendrán los futuros microprocesadores. Las máquinas inteligentes serán capaces de aprender, inferir, pensar, juzgar, memorizar, recordar y mejorar de manera muy similar a la del ser humano. Los materiales inteligentes son aquellos capaces de modificar su estructura interna de manera que no se dañen ante el efecto de sobrecargas (como terremotos). Se tienen las cámaras y video-cámaras digitales (no más revelado de fotos), las cirugías laparascópicas computarizadas, los órganos artificiales, los robots que harán actividades del hogar e industrias. Ventajas y Desventajas del uso de la electrónica. 56 Ventajas • Desventajas La igualdad entre hombres y mujeres se daría, igualdad de oportunidades, no habría trabajo que solo se ajuste para un solo sexo. • Vida más fácil. • Mayor calidad y esperanza de vida. • Mayor eficacidad en industrias. • Mayor control amenazas. • • • de problemas • Si cae en manos irresponsables será una amenaza para la humanidad. • Los jóvenes se van haciendo muy dependientes a esta tecnología. • Decaería la innovación debido a la falta de creatividad. • Una sola falla en la elaboración de equipos provocaría serios daños. • Los equipos supervisados. • Solamente favorecería a personas con alto nivel intelectual. • Los empleos se reducirían. • La especie tenderá a reducirse. • Podría haber contaminación desechos energéticos. • Lo anterior desencadenaría catástrofes virus u otros problemas como sobrecalentamiento de la tierra. y Se evitarían errores que se dan tanto en la medicina como en otras áreas. Los estudios de protección y preservación de la naturaleza tendrán mejores herramientas para protegerla. Uso de esta tecnología en la agricultura favorece un mayor control de plagas. • Facilidad en la extracción de recursos. • Búsqueda de fuentes de energía y aprovechamiento al máximo de esta. tienen que ser con Usos comunes de la electrónica. • Automatización de oficina. • Equipo para telecomunicaciones . • Circuitos modulares. • Microcomputadoras • Robots. • Instrumentos médicos. • Equipo de control y seguridad. • Transmisión de datos. • Sensores para aplicaciones industriales. • Equipo de pruebas. Conclusiones 57 El ser humano ha hecho una travesía a lo largo del desarrollo del electromagnetismo, en la época que existía una absoluta curiosidad científica por los fenómenos naturales, hasta llegar a la actualidad, en donde es parte sustancial de una poderosa industria tecnológica internacional. La industria electromagnética fue la primera que se desarrolló a partir de bases completamente científicas. Se ha descrito con detalle la relación que se ha dado entre el trabajo científico, que consiste en el descubrimiento y estudio de los fenómenos naturales, y la tecnología, que da lugar a la aplicación práctica de los conocimientos obtenidos por la ciencia. Esta relación no es ni directa ni lineal, ya que una vez que se intenta hacer alguna aplicación, en la mayoría de los casos resulta que se presentan problemas de diversa índole que requieren más investigación, lo que a su vez mejora la tecnología. Por tanto, esta retroalimentación ha inducido mejores productos, y ha motivado investigaciones científicas que han abierto nuevas ventanas sobre el misterio de la naturaleza. Una característica importante que ha ayudado al progreso de la rama electromagnética es la existencia de laboratorios industriales, que también existen en otras ramas científico-tecnológicas. Podemos afirmar que una característica de los países más avanzados es que poseen laboratorios industriales. En la actualidad no podríamos imaginarnos vivir sin electricidad. La historia de la electrónica constituye una lección de grandes proporciones sobre el desarrollo de la humanidad. 2.2.2 Historia de la electrónica en Colombia. Los esfuerzos que desde los inicios de la década del 80 han venido realizando preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y electricistas, por crear una industria electrónica nacional, han tenido hasta ahora muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse en su ramo, pero hoy día las que subsisten apenas si han logrado crecer. La industria electrónica nacional está abocada a enfrentar las mismas dificultades a las que está sometida en el país toda la pequeña y la mediana industria, dificultades que se pueden resumir en: 1. Escasez de créditos o intereses confiscatorios en caso de que se consigan. 2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior a la apertura económica. Además, la industria electrónica debe afrontar otras dificultades, propias de su naturaleza, tales como: 58 1. Dificultad para conseguir internamente los componentes electrónicos debido a lo reducido del mercado. 2. Dificultad para conseguir las herramientas necesarias para la I&D, tales como programas de simulación, programas CAD y sistemas de desarrollo para microprocesadores y microcontroladores. 3. Dificultad para conseguir la información técnica actualizada, en especial los manuales de los fabricantes de semiconductores. 4. Deficiente calidad de los componentes metal mecánicos fabricados en el país, como cajas y chasis. La apertura facilitó la entrada al país de productos que en algunos casos resultaron, con respecto a los producidos acá, más económicos o de superior calidad o ambas cosas, ejemplos de tales productos fueron los controladores digitales de procesos, los indicadores digitales de temperatura para múltiples termopares, los variadores de velocidad para motores eléctricos, los reguladores de voltaje y las UPS's. Algunas empresas pasaron de ser fabricantes a ser distribuidoras de esos mismos equipos pero importados. De todas maneras, según el segundo censo realizado en 1992 por la Asociación de Entidades del Sector Electrónico - ASESEL, en el país existen 194 empresas fabricantes, que se desempeñan en el campo de la electrónica profesional, el que comprende productos no de consumo masivo sino especializados, en donde es más fácil competir. Ejemplos destacados de tales productos fabricados en el país son los siguientes: alarmas antirobo para vehículos y edificaciones, reguladores de voltaje, inversores, cargadores de batería, UPS's, terminales de consulta de saldos bancarios, controles para acceso de personal, lectores de banda magnética, pequeñas centrales telefónicas, material didáctico para el aprendizaje de la electrónica, circuitos impresos de doble cara con hueco metalizado y teclados de membrana. Casi todas las empresas del sector electrónico profesional son pequeñas, pero revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí todo el proceso de producción, incluyendo las labores de investigación y desarrollo de los productos. En cambio hay otras empresas, por cierto muy pocas, subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar sus productos. Según el censo ya citado, el 96 % de las empresas del sector electrónico se concentran en las 3 principales ciudades: Bogotá, Calí y Medellín. El resto se ubican en ciudades intermedias como Pereira y Popayán. 59 CAPITULO 3 3.1. ACTUALIDAD Actualidad de la Ingeniería 3.1.1. Actualidad de la Ingeniería el mundo PANORAMA MUNDIAL Uno de los grandes desafíos de los ingenieros colombianos, se halla en no perder de vista la perspectiva mundial, y es la necesidad de ser competitivos a este nivel. Para nadie es desconocido, que mundialmente se hallan soluciones a enormes problemas, que no dejan de sorprender al hombre mismo. A medida que crece la población humana, esta se interconecta y en cada situación la ciencia y la tecnología se expanden a gran velocidad y la ingeniería exige cada día más, doctos en el área para atender vitales necesidades. Los procesos de la globalización están basados en la tecnología y por ello es comprensible la función social de la ingeniería en el marco de la modernidad. El rápido crecimiento de la población de los países del desarrollo, generalmente colonizados en el sentido económico, cuando no militar, ha generado desigualdades profundas. Se concentran los emporios de empresas, su amplia producción y los grandes capitales para beneficio de pocos ciudadanos, mientras aumentan los obstáculos para mejorar la calidad de la mayoría. 58 El 70% de la población mundial genera el 7% de la producción industrial en manufacturas, el 40% de la gente recibe el 5.2% del total producido en el mundo, mientras el 20% tiene el 71.3%. Es decir, la pirámide de producción tiene una base amplia en pocos países, la oferta extranjera aumenta en los pueblos que menos producen, porque tienen importaciones considerables, economías débiles y poco poder adquisitivo. La globalización presupone la realización del conocimiento en bienes y servicios de valor agregado, distribuidos y fortalecidos por cadenas industriales y sus filiales en varios países, la mayoría corresponde a países industrializados y de reciente industrialización. Las condiciones de comercialización de productos, planeación, productividad, calidad, precio, diseño, tecnología y otros factores, están siendo fundamentales para los nuevos sistemas económicos, en donde los avances en ciencia y tecnología permitirán futuros distintos a las realidades actuales, y la ingeniería continuará siendo parte fundamental de las cadenas productivas. 58 V, Sonia, HERNANDEZ, Silvana, Los grandes bloques mundiales. Revista de la facultad de ingeniería.UNAM, Vol. 47 Marzo de 1997. 60 En la oferta y la demanda están ligados tanto quienes proporcionan la mayor parte de la materia prima, como los poseedores de la tecnología, los modernos procesos industriales, las corrientes en investigación y desarrollo, patentes, las normas internacionales, la producción de energía, alimentos, inversiones y mejor nivel de vida. La diferencia de bienes y servicios en distintas sociedades y la capacidad de compra son tan muy marcadas. 3.1.2 Actualidad de la Ingeniería en Colombia. LA CIENCIA Y LA TECNOLOGÍA EN COLOMBIA59 En nuestro país la historia de la ingeniería se remonta a la época precolombina y la primera escuela de ingeniería se abrió en Medellín, en 1814, poco después de que la ingeniería se consolidara como profesión, lo cierto es que el avance de la ingeniería se dio apenas en la segunda mitad del siglo XX. La escasez en los planes de formación en el país obedece a diversas razones. - - - Los primeros profesores se formaron en Europa y Estados Unidos de esa manera, los modelos iniciales de formación de Ingenieros en Colombia fueron copias más o menos fieles de aquellos modelos tradicionales. Las políticas de formación profesional de ingenieros, cambian de un gobierno a otro, dado que en su agenda no ha sido una prioridad la formación de buenos ingenieros y menos aún el fomento de la ciencia y la tecnología. Estas políticas de formación de ingenieros, de apoyo al desarrollo de la ciencia y la tecnología, y de soporte a la educación están limitadas y son impuestas por los organismos de crédito y financiamiento internacional (FMI, BID y Banco Mundial), entidades que impulsan y determinan políticas generales, en todos los campos (incluida la educación), para los países en vías de desarrollo. Las nuevas rupturas en ciencia y tecnología empezaron a darse después de la Segunda Guerra Mundial, cuando entraron gran número de procesos y nuevos equipos asociados a empresas en nuevas ramas de la industria, que se consolidaron en la década de 1960, época en la cual egresaban de las facultades del país apenas unos 210 ingenieros por año. Desde el punto de vista de la política de ciencia y tecnología, el modelo colombiano adoptado en aquellas décadas era similar al imperante en América Latina. Se Consideraba que la ciencia y la tecnología debían fortalecerse, 59 VALENCIA, Asdrúbal. La Ciencia y la tecnología en Colombia. Ciencia y tecnología y sociedad. CESETU de A. Medellín, 1997. 61 haciendo énfasis en la capacidad de investigación, con la esperanza de que esta se reflejaría en tecnología para el sector productivo. En un enfoque simplista que falló por múltiples factores, como los económicos y los inherentes al proceso de maduración de las innovaciones. A partir de entonces la tendencia tecnológica es hacia la modernización de industrias y ramas ya antiguas. Pero a mediados de la década aparecen nuevas industrias, casi todas de elevado nivel tecnológico, y casi todas propiedad extranjera, o bajo control extranjero. En 1967 un decreto pone la transferencia y el desarrollo de tecnología bajo el control del gobierno. Entonces se piensa que el problema central para el desarrollo es tecnológico y no científico, y se busca fortalecer la capacidad de negociación elaborando la selección y evaluación tecnológica. Este enfoque tiene los serios problemas filosóficos ya planteados. El tratar de modernizar sin buscar la modernidad, situación que persiste y que pude resumirse en la frase de García Caclini “Somos consumidores del siglo XXI y ciudadanos del siglo XVII). Como hemos señalado para impulsar el desarrollo científico y tecnológico de Colombia, en 1968 se creó el Fondo Colombiano de Investigaciones Científicas y Proyectos Especiales “Francisco José de Caldas, COLCIENCIAS, como un establecimiento público descentralizado adscrito al Ministerio de Educación. A su vez esta institución servia de Secretaría Ejecutiva del CONCYT Consejo nacional de Ciencia y tecnología, máximo organismo consultivo del gobierno en esta materia, creado también en 1968, pero el cual nunca llego a ningún papel importante.60 La acción de COLCIENCIAS se desarrollo en varias fuentes como: La financiación de proyectos de investigación en las diversas áreas de las ciencias, el auspicio al intercambio de científicos, la realización de seminarios especializados, el otorgamiento de distinciones como el premio nacional de ciencias, el apoyo a los comités de investigación en las universidades. En 1989 creó el gobierno la llamada Misión de Ciencia y tecnología, Junta de Académicos que estudio las perspectivas de la ciencia y tecnología en el país, estableciendo recomendaciones para el fomento del desarrollo científico y tecnológico para Colombia en los años siguiente. El Consejo Nacional de Política Económica y Social COMPES es el organismo principal asesor del Gobierno Nacional en todos aquellos aspectos que se relacionan con el desarrollo económico social del país. Desde 1988 empezó a debatirse en el Congreso un Proyecto Ley, por el cual se dictan disposiciones para el fomento de la investigación científica y el desarrollo 60 CERNUSCHI, Félix. Criterios modernos para la formación de ingenieros integrados. Número 3 Montevideo, junio 1.999. Sitio. WWW.fing.edu.uy/cey/. 62 tecnológico. Este proyecto se convirtió en la ley 29 de febrero de 1990 conocida como la ley Marco en Ciencia y tecnología que fue el eje de la Reforma Jurídica adoptada. Ella reconoce la necesidad de la intervención del estado en la promoción y orientación del adelanto científico y tecnológico. Otros decretos ley consolidan la necesidad de un nuevo sistema de ciencia y tecnología. Mediante el decreto 393 del 08 de febrero de 1991, se autoriza a la nación y a sus entidades descentralizadas para asociarse con los particulares, propiciando las corporaciones mixtas. Desde el punto de vista la ciencia y la tecnología al año de 1991, expide varios artículos haciendo referencia a incentivos para personas, e instituciones para que desarrollen y fomenten la ciencia y la tecnología; promuevan la investigación y la transferencia de tecnología y especialmente la investigación científica. POLÍTICA NACIONAL DE CIENCIA Y TECNOLOGÍA El objetivo general de esta política es integrar a la ciencia y la tecnología, los diversos sectores de la vida nacional; buscando incrementar la competitividad del sector productivo en el contexto de una política de internacionalización de la economía y mejorar el bienestar y calidad de vida de la población colombiana. Todo esto se sintetiza en unos documentos CONPES 2739. Las políticas centrales son el fortalecimiento nacional de ciencia y tecnología, la innovación, competitividad, desarrollo tecnológico, ciencia desarrollo social medio ambiente y hábitat, integración de la ciencia y la tecnología a la sociedad colombiana, seguimiento y evaluación de los programas de desarrollo científico, tecnológico, inversión en ciencia y tecnología. Los problemas centrales de esta política es la enorme desigualdad socioeconómica entre los sectores de la sociedad. La organización de la vida política colombiana; pero sin embargo proliferan relaciones propias de una sociedad tradicional que moviliza un discurso americano. De hay nuestra ingeniería esta incluso llamada adelantarse a los últimos desarrollos mundiales pero sin olvidar las características y grandes necesidades básicas del país. INGENIERÍA EN COLOMBIA La carencia de apoyo a las ciencias, se vio reflejado en los primeros intentos por hacer universidad, pues 1968 se creo COLCIENCIAS, como una entidad para formar el desarrollo científico en el país, lo que demuestra que no ha realizado un esfuerzo coherente y sostenido para crear una infraestructura científica y tecnológica. 63 La Ingeniería Colombiana es escasa: no obstante ha hecho aportes significativos al país; tales eventos se pueden describir en diversos niveles: A nivel de formación están las actividades ingenieriles por la jerarquía y la creatividad. En el nivel uno esta la investigación tecnológica científica, sobre nuevos procedimientos del cálculo. En el nivel dos la creación de nuevos trabajos de proyectos y obras de ingeniería. En el nivel tres obras proyectadas de ingenieros del nivel dos o del mantenimiento de industrias establecidas. En el nivel cuatro la realización de tareas de ensayos, mediciones, control, ejecutados por ingenieros investigadores de alta formación. Según el ICFES el porcentaje de titulo de ingeniería en 1976 era casi del 0% y las maestrías no han pasado del 1%.61 A nivel de ambiente de trabajo para la ingeniería colombiana, se ve un clima altamente inseguro por la obsolescencia de las empresas, la recesión. Continuamente asesinan y secuestran ingenieros por lo tanto las obras civiles, las telecomunicaciones, la distribución eléctrica, la ingeniería y la minería han sufrido grandes atrasos. LA INGENIERÍA COLOMBIANA Y MUNDIAL Dentro de las ventajas hay coincidencia en que existe un mejor conocimiento del medio geográfico y cultural y la exigencia de salarios de menos costos. Y dentro de las desventajas hay cinco aspectos que resaltan como son: La debilidad del país en ciencia y tecnología e investigación, para tecnología de punta, las limitaciones financieras por el escaso acceso a créditos. La ingeniería extranjera que tiene alianzas nacionales con los gobiernos de origen. En gestión tecnológica las empresas presentan grandes debilidades de adaptación e innovación; los sistemas de comunicación e información precarios y el no manejo de un idioma extranjero y la poca estructura tecnológica, la privatización de empresas estatales y la debilidad gremial. NUEVAS FORMAS DE BUSCAR CALIDAD DE LA INGENIERÍA COLOMBIANA La implementación del modelo económico neoliberal y la globalización de los mercados, ha tenido efectos significativos en la vida empresarial colombiana y exige nuevos retos a las organizaciones dedicadas a proyectos de ingeniería. Por lo tanto se requiere la formulación de nuevos esquemas de financiación y comercialización así como la capacidad ingenieril. Con relación a la Universidad se reclama la maestría y doctorados en la planta docente que eleven la formación académica. 61 COLCIENCIAS, Sistema nacional de Ciencia y Tecnología. Instrumentos jurídicos, Colciencias, Bogotá.1991. 64 En gestión tecnológica una mayor capacidad, diseñando alianzas con firmas extranjeras de esta manera progresando en la internacionalización. Se requiere al igual de exponer de banco de datos, comunicaciones, e información inteligente. 3.2 Actualidad de la Electrónica62 Cuando se trata la actualidad y la prospectiva de la electrónica no se puede omitir el tema de la microelectrónica, un sector considerado como el factor dirigente de la industria electrónica 3.2.1 La Electrónica en el mundo Los Equipos Electrónicos La industria electrónica suministra a la sociedad, en principio, equipos que se utilizan en el hogar, en la oficina, en la industria o en cualquier otro ámbito en donde se desarrolle la actividad humana. En 1992 las ventas de equipos electrónicos en el mundo fueron de 660.000 millones de dólares63, distribuidas de la siguiente manera: o Procesamiento de datos 43 % o Electrónica de consumo 22 % o Telecomunicaciones 18 % o Electrónica industrial 8 % o Electrónica automotriz 3 % o Otros 6 % Como se aprecia en la tabla anterior, las 3 clases de equipos electrónicos de mayor venta en el mundo representan en conjunto más del 80 % del mercado, y corresponden en su orden a los computadores, los equipos de consumo y los de telecomunicaciones. Los computadores, por su parte, constituyen más del 40 % del mercado global de equipos electrónicos, pero aclarando que esta cifra se obtuvo contabilizando solamente los equipos, o sea el hardware, sin haber tenido en cuenta el mercado de los programas (software), que hoy día es casi de igual volumen al primero. En los últimos años el software ha venido adquiriendo una importancia creciente, bien sea por haberse convertido en el cuello de botella en el desarrollo de muchos productos, o bien sea por que las novedades en el campo del hardware no logran despertar la acogida del publico hasta tanto no cuenten con el soporte lógico suficiente (software), tal como acontece cuando se lanza al mercado un nuevo microprocesador, o cuando aparece un nuevo dispositivo como el multimedia, o 62 Adolfo Mora Villate, Profesor Depto de Ingeniería Eléctrica Universidad Nacional http://www.icfes.gov.co/revistas/ingeinve/No37/Art3.html 63 Cita el Autor: CURTOIS, Bernard. "CAD and testing of ICs and systems: Where are we going ?". Estudio realizado para el Centro Nacional de Investigaciones Científicas (CNRS) de Francia. Grenoble. 1993. 65 cuando se mejora el desempeño de alguno de los periféricos, como sucede cuando se eleva la resolución de los monitores. La electrónica de consumo, que ocupa el segundo lugar en ventas de equipos, suministra los aparatos asequibles a las grandes masas y que son utilizados en el hogar para el entretenimiento y la cultura, como televisores, radios, grabadoras, equipos de sonido, juegos, relojes y calculadoras. El sector de las telecomunicaciones se remonta a los orígenes de la electrónica a partir de la segunda mitad del siglo XIX, con la telegrafía primero y luego con la telefonía y la radio. Hoy día las telecomunicaciones abarcan, además de los sistemas tradicionales, nuevas tecnologías como la fibra óptica, los sistemas satelitales y la telefonía móvil celular. Mientras en el mundo las telecomunicaciones ocupan el tercer lugar en ventas de equipos, en Colombia ocupan el primer lugar, sin tener en cuenta la electrónica de consumo, según un estudio realizado en 198864. A la par con el tradicional y permanente interés de la industria por elevar su productividad, en las ultimas 3 décadas del siglo XX han surgido otros paradigmas a nivel industrial, como los de aumentar la eficiencia energética y reducir la contaminación ambiental. De la solución de estos problemas se ocupa, junto con otras disciplinas, la electrónica industrial. Por ejemplo, para elevar la productividad de las industrias de procesos, la electrónica industrial ofrece equipos como los sistemas de control distribuido, los transmisores inteligentes y los analizadores en línea; mientras que para elevar la productividad de la industria manufacturera ofrece equipos como robots y sistemas de control numérico. El último sector que figura en la tabla de equipos electrónicos es el de la electrónica automotriz, que aunque todavía se cataloga por el volumen de sus ventas entre los más modestos, es uno de los de mayor crecimiento. Los modelos nuevos de los vehículos automotores incorporan, cada vez con mayor frecuencia, sistemas microprocesados o sea microcomputadores de propósito especial) para el manejo de sensores, indicadores, alarmas y especialmente para el manejo de la inyección electrónica, que está desplazando al viejo carburador, permitiendo aumentar la eficiencia del motor. Los Componentes Electrónicos Los equipos electrónicos se fabrican con insumos denominados componentes, empleando un proceso que se inicia con la labor de soldar los semiconductores y demás componentes sobre los circuitos impresos, para formar las tarjetas, y luego 64 MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales. 1988. 66 seguir con el montaje de dichas tarjetas dentro de las cajas, quedando de esta manera construidos los instrumentos Los componentes electrónicos son de 2 tipos: o Semiconductores o componentes activos o Componentes pasivos Los semiconductores pueden ser de 3 tipos: Circuitos Integrados, dispositivos discretos y dispositivos optoelectrónicos. Los componentes pasivos involucran una variada gama de dispositivos tales como: circuitos impresos, resistores, condensadores, conectores, cables, fuentes y tubos de rayos catódicos; estos últimos de uso todavía como pantallas en los televisores y en los monitores de los computadores. El mercado mundial de componentes electrónicos en 1992 fue de 160.000 millones de dólares (ver referencia (2)), distribuidos de la siguiente forma: Semiconductores US $ 90.000 millones Componentes pasivos US $ 70.000 millones Del total de ventas de semiconductores, el 75 % corresponde a los Circuitos Integrados, que son los dispositivos que encierran dentro de una misma cápsula muchos transistores, variando su numero entre unas pocas decenas para el caso de los circuitos lógicos más sencillos, hasta más de 16 millones para el caso de las memorias de 16 Megabits. Circuitos que de otra manera tendrían que construirse con elementos discretos ocupando grandes espacios e incrementando proporcionalmente su costo y su vulnerabilidad. La Microelectrónica La microelectrónica es la tecnología de desarrollo y de producción de Circuitos Integrados, con el fin de lograr empacar dentro de unas pastillas de silicio de unos pocos centímetros cuadrados de extensión miles y hasta millones de transistores, reduciendo cada vez más las dimensiones de estos transistores, que en el momento actual pasan por el orden de las 0.5 micras. Aunque en electrónica los diferentes sectores son interdependientes y se complementan unos con otros, - por ejemplo el hardware requiere del software y viceversa, los equipos electrónicos requieren de los componentes y estos a su vez requieren de los primeros porque de otra manera no tendrían mercado, - sin embargo, es un hecho, algunas veces aceptado tácitamente y otras veces 67 planteado explícitamente, que la microelectrónica constituye el factor clave, el decisivo dentro de la electrónica. Pero ¿por qué la microelectrónica constituye el factor dirigente de la industria electrónica, siendo que su mercado apenas representa el 7 % del total? Porque quien domine la microelectrónica esta en capacidad de dominar toda la industria electrónica y por esa vía, bien sea los países independientes tratan de asegurar su desarrollo autónomo y sostenido, o bien sea las potencias tratan de asegurar su predominio sobre las demás. La carrera en la electrónica entre los países más avanzados o entre las empresas más poderosas de esos países, radica en ver quien saca primero al mercado la siguiente generación de memorias, o la siguiente generación de microprocesadores de mayor velocidad y desempeño. Siendo la electrónica una de las tecnologías más dinámicas, las compañías de vanguardia deben innovar continuamente sus productos con el fin de no quedarse rezagadas, ya que usualmente los equipos se vuelven obsoletos en pocos años, como sucede por ejemplo con los computadores personales. Paralelamente a este proceso de crecimiento de las memorias, se ha venido presentando otro no menos espectacular, el de los microprocesadores. Mientras los primeros microprocesadores producidos por INTEL en 1971, manejaban 4 bits, operaban a una velocidad inferior a 1 megaciclo y contenían 2300 transistores, los microprocesadores de hoy, como el Pentium, manejan 64 bits, operan a 100 megaciclos y contienen más de 3 millones de transistores Entre las tecnologías de fabricación de Circuitos Integrados predomina la tecnología CMOS con un 74 % del mercado, seguida de la bipolar con un 12 %. De las restantes vale la pena mencionar la de arseniuro de galio, que por ser la más rápida es la que se utiliza en altas frecuencias (como en telecomunicaciones), pero todavía no se vislumbra ninguna tecnología que pueda disputarle el predominio a la tecnología CMOS. Como cada vez se hace más difícil con el proceso de fabricación actual (fotolitografía), reducir las dimensiones de los transistores, se están ensayando otras alternativas, como el montaje de varios chips dentro de una misma envoltura y el empaquetamiento de las memorias en 3 dimensiones Los costos que ahora acarrea el desarrollo de la microelectrónica se han elevado tanto, que resultan onerosos aún para los grandes fabricantes, siendo esta la razón de los múltiples convenios pactados en años recientes entre los gigantes norteamericanos, japoneses y europeos para la Investigación y el Desarrollo ( I&D ) de nuevos productos, tal como el celebrado entre IBM, Toshiba y Siemens para la I&D del chip de 256 Megabits a un costo de 1000 millones de dólares. Cifra esta a la que se debe agregar otra inversión de aproximadamente 1000 millones de 68 dólares para el montaje de la planta de fabricación de tales chips, empleando tecnologías de 0.3 a 0.35 micras. Estado del arte y prospectiva de los equipos electrónicos Al contrario de lo que sucede con las novedades en microelectrónica, que usualmente pasan inadvertidas para el gran público que se beneficia de ellas, las novedades en equipos si causan gran impacto y son las que más impresionan al lego en la materia. Las herramientas computacionales que se están perfeccionando para el reconocimiento y la síntesis de la voz así como para el reconocimiento de imágenes, y que involucran tanto hardware como software, prometen interesantes logros en el futuro próximo. Con estas herramientas será posible librarnos de la tiranía del teclado, se simplificara el manejo de aviones, helicópteros y vehículos automotores, lo mismo que la operación de las plantas industriales, y se cumplirá el sueño de incorporar visión en los robots. Desde comienzos de los 80 varias compañías japonesas y europeas vienen trabajando independientemente en la televisión de alta definición. Esta será sin duda la televisión del siglo XXI, manejando, además, las señales digitalizadas e integrada a un computador, de tal forma que será interactiva, permitiendo al usuario escoger el programa deseado en cualquier momento, sin estar sometido a los caprichos de la programación. Las nuevas tecnologías están originando toda una revolución en el campo de las telecomunicaciones, que ha causado un remezón en las tradicionales y a veces paquidérmicas compañías del ramo, a las que les está brotando competencia por doquier, gracias a la irrupción de tecnologías como la telefonía móvil celular, los sistemas satelitales y la fibra óptica. Esta ultima aunque es menos popular que las 2 primeras, es la que ofrece mayor capacidad de transmisión, permitiendo enviar por un mismo haz más de 10.000 conversaciones telefónicas o muchas señales de video simultáneamente. La ultima generación de fibras ópticas, que emplea amplificadores de fibra dopados con Erbio, puede transmitir más de 1000 km a la fantástica velocidad de 100 Gigabits por segundo65. La unión entre los computadores y las telecomunicaciones ha dado lugar a un sinnúmero de aplicaciones, especialmente en los sectores de la banca y el comercio, pero también en los campos de la educación y de la cultura gracias a las redes de computadores, como la ya popular INTERNET. Esta unión también ha hecho posible la oficina virtual, para lo cual solo se requiere de un computador dotado de un módem. 65 El autor hace referencia a: DESURVIRE. "Comunicaciones ópticas: La quinta generación". Investigación y Ciencia Marzo. 1992. 69 En las industrias de procesos se están usando desde la década pasada los transmisores inteligentes, que son instrumentos de medición dotados de microprocesadores, que por medio de programas (software) pueden realizar funciones adicionales como: autodiagnóstico, linealización, compensación por cambios en las condiciones de operación y control del proceso. Con la próxima entrada en vigencia de la norma conocida como "bus de campo", se consolidara este tipo de instrumentos, pero ya no transmitiendo en forma análoga sino digital y obteniendo otras ventajas como: extensión del control distribuido por toda la planta, menos posibilidades de degradación por ruido, empleo de menor cantidad de cables en el sistema de control y posibilidad de interconectar entre si equipos de diferentes fabricantes. En la industria manufacturera se continuará con la tendencia a dotar a los robots de sensores, especialmente para el reconocimiento de imágenes y de voz. Las perspectivas para las industrias que se aferren a los sistemas tradicionales de producción no son nada halagüeñas. Las industrias que no se modernicen, que no incorporen las tecnologías avanzadas a sus procesos de producción, perderán competitividad y estarán condenadas irremediablemente a desaparecer. 3.2.2 La Electrónica en la Colombia66 Los esfuerzos que desde los inicios de la década del 80 han venido realizando preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y electricistas, por crear una industria electrónica nacional, han tenido hasta ahora muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse en su ramo, pero hoy día las que subsisten apenas si han logrado crecer. La industria electrónica nacional está abocada a enfrentar las mismas dificultades a las que está sometida en el país toda la pequeña y la mediana industria, dificultades que se pueden resumir en: 1. Escasez de créditos o intereses confiscatorios en caso de que se consigan. 2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior a la apertura económica. 66 MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales. 1988. 70 Además, la industria electrónica debe afrontar otras dificultades, propias de su naturaleza, tales como: 1. Dificultad para conseguir internamente los componentes electrónicos debido a lo reducido del mercado. 2. Dificultad para conseguir las herramientas necesarias para la I&D, tales como programas de simulación, programas CAD y sistemas de desarrollo para microprocesadores y microcontroladores. 3. Dificultad para conseguir la información técnica actualizada, en especial los manuales de los fabricantes de semiconductores. 4. Deficiente calidad de los componentes metal mecánicos fabricados en el país, como cajas y chasis. La apertura facilitó la entrada al país de productos que en algunos casos resultaron, con respecto a los producidos acá, más económicos o de superior calidad o ambas cosas, ejemplos de tales productos fueron los controladores digitales de procesos, los indicadores digitales de temperatura para múltiples termopares, los variadores de velocidad para motores eléctricos, los reguladores de voltaje y las UPS's. Algunas empresas pasaron de ser fabricantes a ser distribuidoras de esos mismos equipos pero importados. De todas maneras, según el segundo censo realizado en 1992 por la Asociación de Entidades del Sector Electrónico - ASESEL, en el país existen 194 empresas fabricantes, que se desempeñan en el campo de la electrónica profesional, el que comprende productos no de consumo masivo sino especializados, en donde es más fácil competir. Ejemplos destacados de tales productos fabricados en el país son los siguientes: alarmas antirobo para vehículos y edificaciones, reguladores de voltaje, inversores, cargadores de batería, UPS's, terminales de consulta de saldos bancarios, controles para acceso de personal, lectores de banda magnética, pequeñas centrales telefónicas, material didáctico para el aprendizaje de la electrónica, circuitos impresos de doble cara con hueco metalizado y teclados de membrana. Casi todas las empresas del sector electrónico profesional son pequeñas, pero revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí todo el proceso de producción, incluyendo las labores de investigación y desarrollo de los productos. En cambio hay otras empresas, por cierto muy pocas, subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar sus productos. 71 Según el censo ya citado, el 96 % de las empresas del sector electrónico se concentran en las 3 principales ciudades: Bogotá, Calí y Medellín. El resto se ubican en ciudades intermedias como Pereira y Popayán. 72 CAPITULO 4. APLICACIONES 4.1 Industriales 4.1.1 Definición 4.1.2 Estado del arte. 4.2 Robótica 4.2.1 Definición67 1. f. Técnica que aplica la informática al diseño y empleo de aparatos que, en sustitución de personas, realizan operaciones o trabajos, por lo general en instalaciones industriales. La palabra "robot" viene del vocablo checo "robota" que significa "servidumbre", "trabajo forzado", o esclavitud, especialmente los llamados "trabajadores alquilados" que vivieron en el Imperio Austrohungaro hasta 1848. El término "robot" fue utilizado por primera vez por Karen Capek en su historia actuada "R.U.R. (Rossum's Universal Robots)" (escrita en colaboración con su hermano Josef en 1920; interpretada por primera vez en 1921; interpretada en Nueva York en 1922; la edición en inglés fue publicada en 1923). Aunque los robots de Čapek eran humanos artificiales orgánicos, la palabra robot es casi siempre utilizada para referirse a humanos mecánicos. El término androide puede referirse a cualquiera de estos, mientras que un Cyborg ("organismo cibernético" u "hombre biónico") puede ser una criatura que es la combinación de partes orgánicas y mecánicas. En el principio del siglo XVIII, Jacques de Vaucanson creó un androide que tocaba la flauta, así como un pato mecánico que continuamente comía y defecaba. En uno de los cuentos de Hoffmann de 1817 “El Coco” presenta una mujer que parecía una muñeca mecánica, y en la obra de Edward S. Ellis de 1865 “El Hombre de Vapor de las Praderas” expresa la fascinación americana por la industrialización. La prehistoria La palabra robot surge con la obra RUR, los "Robots Universales de Rossum" de Karel Capek, es una palabra checoeslovaca que significa trabajador, sirviente. Sin embargo podemos encontrar en casi todos los mitos de las diversas culturas una referencia a la posibilidad de crear un ente con inteligencia, desde el PopolVuh de nuestros antepasados mayas hasta el Golem del judaísmo. Desde la época de los griegos se intentó crear dispositivos que tuvieran un movimiento 67 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es 73 sinfin, que no fuera controlado ni supervisado por personas, en los siglos XVII y XVIII la construcción de autómatas humanoides fabricados con mecanismos de relojería por Jacques de Vaucanson, Pierre Henri-Louis, Jaquet- Droz, como el escribiente, the Draughtsman, el músico Henri Maillar det (1800), Olimpia de la ópera de Offenback de Hoffman, fortalecieron la búsqueda de mecanismos que auxiliaran a los hombres en sus tareas. Estos autómatas desataron controversias alrededor de la posible inteligencia que pudieran tener estos dispositivos pesadas y en la búsqueda de la posibilidad de crear vida artificialmente. El escribiente hacía mofa de la frase de Descartes de "Pienso luego existo", parafraseándola al escribir "Escribo luego existo". Los fraudes surgieron como en el caso del ajedrecista, en el que un muñeco mecánico daba respuesta a jugadas de ajedrez, comprobándose más tarde que era un enano encerrado en la caja del muñeco el que daba las respuestas y movía el muñeco. Todos estos mitos anteceden a la obra Kapec, en la que se plantea la construcción de robots para liberar a las personas de la carga pesada de trabajo. Sin embargo, esta ficción y la creada por Asimov, junto con las desarrollos mecácnicos de máquinas como el telar de Thaillard, motiva a George Devol a crear el origen de los robots industriales, un manipulador que sería parte de una célula de trabajo. La historia La clasificación de los robots se establece de diversas maneras, temporalmente, por su funcionalidad, por su geometría, por la inteligencia, por lo que hablar de generaciones de robots se puede plantear desde esos diversos puntos de vista. Las características con las que se clasifican principlamente los robots son Propósito o función Sistema de coordenadas empleado Número de grados de libertad del efector formal Generación del sistema control. Clasificación basada en su propósito o función : Industriales b) Personales / Educativos c) Militares--vehículos autónomos Los elementos que constituyen un robot industrial son: Efectores finales Brazos manipuladores Controladores Sensores Fuentes de poder Clasificación de los robots basados en las generaciones de sistemas de control. La primera generación: El sistema de control usado en la primera generación de robots esta basado en la "paradas fijas" mecánicamente. Esta estrategia es conocida como control de lazo abierto o control "bang bang". Podemos considerar como ejemplo esta primera etapa aquellos mecanismos de relojería que permiten mover a las cajas musicales o a los juguetes de cuerda. Este tipo de control es muy similar al ciclo de control que tienen algunos lavadores de ciclo fijo y son equivalentes en principio al autómata escribiente de H. M. Son útiles para las aplicaciones industriales de tomar y colocar pero están limitados a un número pequeño de movimientos. La segunda generación utiliza una estructura de control de ciclo abierto, pero en lugar de utilizar interruptores y botones mecánicos utiliza una secuencia numérica de control de movimientos almacenados en un disco o cinta magnética. El 74 programa de control entra mediante la elección de secuencias de movimiento en una caja de botones o a través de palancas de control con los que se "camina", la secuencia deseada de movimientos. El mayor número de aplicaciones en los que se utilizan los robots de esta generación son de la industria automotriz, en soldadura, pintado con "spray". Este tipo de robots constituyen la clase más grande de robots industriales en E.U., incluso algunos autores sugieren que cerca del 90 % de los robots industriales en EU pertenecen a esta 2ª generación de control La tercera generación de robots utiliza las computadoras para su estrategia de control y tiene algún conocimiento del ambiente local a través del uso de sensores, los cuales miden el ambiente y modifican su estrategia de control, con esta generación se inicia la era de los robots inteligentes y aparecen los lenguajes de programación para escribir los programas de control. La estrategia de control utilizada se denomina de "ciclo cerrado" La cuarta generación de robots, ya los califica de inteligentes con más y mejores extensiones sensoriales, para comprender sus acciones y el mundo que los rodea. Incorpora un concepto de "modelo del mundo" de su propia conducta y del ambiente en el que operan. Utilizan conocimiento difuso y procesamiento dirigido por expectativas que mejoran el desempeño del sistema de manera que la tarea de los sensores se extiende a la supervisión del ambiente global, registrando los efectos de sus acciones en un modelo del mundo y auxiliar en la determinación de tareas y metas. La quinta generación, actualmente está en desarrollo esta nueva generación de robots, que pretende que el control emerja de la adecuada organización y distribución de módulos conductuales, esta nueva arquitectura es denominada arquitectura de subsumción, cuyo promotor es Rodney Brooks. 4.2.2 Estado del Arte Robots equipados con una sola rueda fueron utilizados para llevar a cabo investigaciones sobre conducta, navegación, y planeo de ruta. Cuando estuvieron listos para intentar nuevamente con los robots caminantes, comenzaron con pequeños hexápodos y otros tipos de robots de múltiples piernas. Estos robots imitaban insectos y artrópodos en funciones y forma. Como se ha hecho notar anteriormente, la tendencia se dirige hacia ese tipo de cuerpos que ofrecen gran flexibilidad y han probado adaptabilidad a cualquier ambiente. Con más de 4 piernas, estos robots son estáticamente estables lo que hace que el trabajar con ellos sea más sencillo. Solo recientemente se han hecho progresos hacia los robos con locomoción bípeda. Para el 2002 Honda y Sony, han comenzado a vender comercialmente robots humanoides como “mascotas”. Los robots con forma de perro se encuentran, sin embargo, en una fase de 75 producción muy amplia, el ejemplo más notorio ha sido Aibo de Sony68. Clasificación de los Robot Existen barios parámetros para clasificar los robots, estos pueden ser, por su grado de inteligencia o toma de decisiones, por la función que desempeñan o por su morfología. Los robots se pueden clasificar en móviles y en robots fijos, tomando en cuenta su función y morfología. Robots móviles: Estos robots se pueden desplazar mediante ruedas o patas, interactúan con el medio. Robots fijos: Operan en un solo sitio, no se desplazan, Para especificar la posición del efector final de un robot se necesitan tres ejes principales y para definir la orientación del efector final se requieren otros ejes diferentes69. De acuerdo con la cantidad de grados de libertad que poseen sus movimientos y los ejes definidos los robots fijos tiene otras clasificaciones. La robótica en la actualidad Los robots son usados hoy en día para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de producción. Otras aplicaciones incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde los robots son utilizados. En particular, robots articulados (similares en capacidad de movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La Industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el trabajo de los humanos en muchas tareas repetitivas. Existe una gran esperanza, especialmente en Japón, de que el cuidado del hogar para la población de edad avanzada pueda ser llevado a cabo por robots. Recientemente, se ha logrado un gran avance en los robots dedicados a la medicina, con dos compañías en particular, Computer Motion e Intuitive Surgical, que han recibido la aprobación regulatoria en América del Norte, Europa y Asia para que sus robots sean utilizados en procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es un área en crecimiento. Aquí, los robots son utilizados para transportar muestras biológicas o químicas entre 68 http://es.wikipedia.org/wiki/Robot#Historia Marzo de 2006 http://www.virtual.unal.edu.co/cursos/artes/2003259/Cap03/0304.htm#rf Curso Mundos Virtuales, Universidad Nacional de Colombia. 69 76 instrumentos tales como incubadoras, manejadores de líquidos y lectores. Otros lugares donde los robots están reemplazando a los humanos son la exploración del fondo oceánico y exploración espacial. Para esas tareas, robots de tipo artrópodo son generalmente utilizados. Mark W. Tilden del Laboratorio Nacional de los Álamos se especializa en robots económicos de piernas dobladas pero no empalmadas, mientras que otros buscan crear la réplica de las piernas totalmente empalmadas de los cangrejos. Robots alados experimentales y otros ejemplos que explotan el biomimetismo también están en fases previas. Se espera que los así llamados “nanomotores” y “cables inteligentes” simplifiquen drásticamente el poder de locomoción, mientras que la estabilización en vuelo parece haber sido mejorada substancialmente por giroscopios extremadamente pequeños. Un impulsor muy significante de este tipo de trabajo es el desarrollar equipos de espionaje militar. También, la popularidad de series de televisión como “Robot Wars” y “Battlebots”, de batallas estilo sumo entre robots, el éxito de las Bomba Inteligente y UCAVs en los conflictos armados, los comedores de pasto “gastrobots” en Florida, y la creación de un robot comedor de lingotes en Inglaterra, sugieren que el miedo a las formas de vía articial haciendo daño, o la competencia con la vida salvaje, no es una ilusión. Dean Kamen, fundador de FIRST, y de la Sociedad Americana de Ingenieros Mecánicos (ASME), ha creado una Competencia Robótica multinacional que reúne a profesionales y jóvenes para resolver un problema de diseño de ingeniería de una manera competitiva. En 2003 contó a más de 20,000 estudiantes en más de 800 equipos en 24 competencias. Los equipos vienes de Canadá, Brasil, Reino Unido, y EEUU. A diferencia de las competencias de los robots de lucha sumo que tienen lugar regularmente en algunos lugares, o las competencias de “Battlebots “ transmitidas por televisión, estas competencias incluyen la creación de un robot. Los robots parecen estar abaratándose y empequeñeciendose en tamaño, todo relacionado con la miniaturización de los componentes electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes de que sean construidos e interactúen con ambientes físicos reales. El campo de la robótica industrial puede definirse como el estudio, diseño y uso de robots para la ejecución de procesos industriales. Los robots industriales son robots que se emplean para tareas vinculadas con la producción de bienes de origen manufacturado en fábricas o industrias. Los tipos más habituales son: 77 - Robots de soldadura Se emplean masivamente en el ensamblaje de vehículos a motor, la soldadura por arco es la más habitual. Los robots de soldadura suelen tener la apariencia de un brazo articulado que mediante algún mecanismo alimenta los electrodos necesarios para producir la soldadura. - Robots de carga y descarga Este tipo de robots suele estar formado por un doble eje (X e Y) que permite desplazar cargas sobre dos puntos, de esta forma nos situamos en el punto A y recogemos el objeto en cuestión para a continuación desplazarnos sobre el plano y situarlo en un punto B. Suele ser necesario un tercer grado de libertad (en Z) para poder desplazar los objetos verticalmente y evitar así que toquen el suelo. Otros tipos de robot industriales son: - Robots de ensamblaje - Robots para aplicación de pintura . - Robots para inspección de productos Los domobots son microbots ( robots móviles con microcontrolador) domóticos ( conectados a una red de automatización doméstica). Están conectados a un controlador domótico (un ordenador o un dispositivo autónomo - sin necesidad de ordenador -) mediante cable (puerto USB o Firewire) o inalámbricamente (generalmente un puerto WIFI). Se utilizan principalmente en las tareas del hogar (home care), como aspiradores, transportadores de objetos dentro de la casa para el lavado, planchado... No es lo mismo un robot doméstico que un domobot. ROOMBA es un robot doméstico, pero no es un domobot debido a que no tiene un puerto para conectarlo a la red domótica (p.e. un puerto WIFI o USB ). En definitiva, la domobótica es un cruce entre la microbótica y la domótica. En nuestro país el desarrollo de la robótica aun no es muy representativo, se limita a algunos logros en competencias internacionales, desarrollos teóricos dados por 78 grupos de investigación en algunas universidades, no se tiene trabajos a nivel industrial que sirvan de ejemplo para mostrar un desarrollo significativo en el tema. La microbótica es la tecno-ciencia que se ocupa de los microbots. El microbot ha sido posible gracias a la aparición del microcontrolador en los años 90 del Siglo XX, que es el computador que gobierna al microbot y que se incrusta en el mismo. Al ser un ordenador limitado, los microbots están dedicados a resolver tareas que no exijan una elevada potencia y complicados algoritmos, con rapidez y precisión. Debido a la pequeñez del microcontrolador y a su portabilidad, una característica principal del microbot es la movilidad, ya que puede llevar insertado el ordenador que le dirije. Ha de indicarse que en la actualidad, gracias especialmente a las conexiones inalámbricas tipo Wi-Fi (por ejemplo, dentro de una red domótica) han aumentado las capacidades de procesado de los microbots, pudiendo memorizar más datos y realizar tareas más complejas. Cuando el microbot actúa sin estar controlado por un ordenador externo (con el ordenador apagado), se dice que actúa en modo autónomo. Robot en el Espacio70. Una de las aplicaciones muchos más aprovechadas de la robótica, y que el hombre se ha seguido maravillando, es la telerobótica en el espacio extraterrestre. La organización más importante dentro de este aspecto, y que ha marcado un rumbo muy avanzado en cuanto a tecnologías e investigaciones, es la NASA (National Aeronautics and Space Administration). 70 http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones Junio 2006 79 El Programa de Telerobótica Espacial de la NASA, esta diseñado para desarrollar capacidades de la telerobótica para la movilidad y manipulación a distancia, uniendo la robótica y las teleoperaciones y creando nuevas tecnologías en telerobótica. Los requerimientos de tecnología de la robótica espacial pueden ser caracterizados por la necesidad del control manual y automático, tareas no repetitivas, tiempo de espera entre el operador y el manipulador, manipuladores flexibles con dinámicas complejas, nueva locomoción, operaciones en el espacio, y la habilidad para recuperarse de eventos imprevistos. El Programa de Telerobótica Espacial consiste en un amplio rango de tareas de investigaciones básicas científicas para el desarrollo de aplicaciones para resolver problemas de operación específicos. El programa centra sus esfuerzos en tres áreas en especial: ensamblaje y servicio en órbita, cuidar los gastos científicos, y robots en la superficie del planeta. Para poderse aplicar correctamente las áreas dentro de su materia, el programa se encarga del desarrollo del robot completo, de sus componentes, y de la correcta creación e implantación del sistema para que los robots puedan cubrir las necesidades por completo. Su principal aplicación es el poder proveer la tecnología para las aplicaciones de la telerobótica espacial con suficiente confianza por parte de los diseñadores para que futuras misiones espaciales puedan aplicar la tecnología con toda confianza. 80 Robots en el Hogar.71 La aplicación más antigua es en el hogar. Los electrodomésticos, como hoy los conocemos, forman parte del mundo de la robótica, y aunque parezca increíble, éstos son robots domésticos. No se requiere de una gran programación previa, ni de mecanismos super complejos para poder caracterizar a un robot doméstico, puesto que este es su fin: facilitar las labores domésticos, y por consiguiente ocupar el menor espacio posible para poder realizar las tareas. Uno de los primeros robots domésticos fue la estufa, ya sea de leña o de gas; le siguen el refrigerador, el lavavajillas, el horno de microondas, el horno eléctrico y así muchos más electrodomésticos que pasan desapercibidos por la mayoría de nosotros, y no nos damos cuenta de que también son considerados como robots, robots electrodomésticos. Entretenimiento. La robótica ha invadido la mayoría de nuestras actividades cotidianas, muestra de ello, es la robótica en los medios de esparcimiento, y como ejemplo podemos citar al fabuloso parque de diversiones Disneylandia. En este parque de diversiones se pueden encontrar una gran variedad de aplicaciones de la robótica, desde pájaros cantores, elefantes en movimiento, cocodrilos, osos, hasta simuladores de vuelo, androides, submarinos, etc. Como se puede ver, la robótica puede ser utilizada en casi cualquier actividad que el ser humano realice, y puede ser de gran utilidad. Nos damos cuenta de que la robótica empieza a ser parte de nuestras vidas cotidianas, así como lo empezaron algunas de las actividades que actualmente realizamos todos los días. 4.3. AUTOMATIZACIÓN 4.3.1 Definición Automatización72. 71 72 http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones junio 2006 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es. 81 1. f. Acción y efecto de automatizar. automatizar. 1. tr. Convertir ciertos movimientos corporales en movimientos automáticos o indeliberados. 2. tr. Aplicar la automática a un proceso, a un dispositivo, etc. autómata. (Del lat. automăta, t. f. de -tus). 1. m. Instrumento o aparato que encierra dentro de sí el mecanismo que le imprime determinados movimientos. 2. m. Máquina que imita la figura y los movimientos de un ser animado. 3. m. coloq. Persona estúpida o excesivamente débil, que se deja dirigir por otra. AUTOMATIZACIÓN 73 Con el nacimiento de la Revolución Industrial, muchas fábricas tuvieron gran aceptación por la automatización de procesos repetitivos en la línea de ensamblaje. La automatización consiste, principalmente, en diseñar sistemas capaces de ejecutar tareas repetitivas hechas por los hombres, y capaces de controlas operaciones sin la ayuda de un operador humano. El término automatización también se utiliza para describir a los sistemas programables que pueden operar independientemente del control humano. La mayoría de las industrias has sido automatizadas o utilizan tecnología para automatizar algunas labores; en la industria de la telefonía, marcación, transmisión y facturación esta completamente automatizados. Los ferrocarriles son controlados por herramientas automáticas de señalización, las cuales cuentan con sensores capaces de detectar el cruce de carros en un punto en especial, esto significa que se puede tener vigilado el movimiento y localización de vagones de tren. Pero no todas las industrias requieren el mismo grado de automatización. La agricultura es una industria difícil de automatizar, y con esto se ha vuelto más mecanizada, esencialmente en el procesamiento y empaque de comida. De manera similar, los doctores pueden dar consulta asistiéndose en una computadora, pero finalmente el doctor, y no la computadora, termina por dar el diagnóstico final al paciente. Las industrias del aceite y la química en especial, han desarrollado métodos de flujo continuo de producción, a causa de la naturaleza de los materiales utilizados; en la industria de la refinería, aceite crudo penetra en un punto y fluye continuamente a través de pipas, destilación, y herramientas de reacción para ser procesadas en productos como la gasolina o el aceite. Un arreglo de herramientas de control automático manejados por un microprocesador y coordinados por una computadora central se utiliza para el control de válvulas, termostatos, o cualquier otro equipo que requiera ser regulado por las ocurrencias de flujo o reacción. 73 http://isaacasimov.garcia-cuervo.com/Robotica.htm#Automatización, Junio 2006 82 Los robots comenzaron a aparecer en este proceso de automatización industrial hasta la aparición de las computadoras en los 40’s. Estos robots computarizados, están equipados con pequeños microprocesadores capaces de procesar la información que le proveen los sensores externos y así es como el robot puede tomar cambiar o mantener una operación en ejecución, a esto se le llama retroalimentación, y forma parte de la Cibernética. La retroalimentación es esencial en cualquier mecanismo de control automático, ya que ayuda a controlar los factores externos que le afecten en la correcta ejecución de sus operaciones normales. ANTECEDENTES 74 Antiguamente, se creaban artefactos capaces de realizar tareas diarias y comunes para los hombres, o bien, para facilitarles las labores cotidianas; se daban cuenta de que había tareas repetitivas que se podían igualar con un complejo sistema, y es así como se comienza a crear máquinas capaces de repetir las mismas labores que el hombre realizaba, y como ejemplo de estas máquinas podemos citar las siguientes: • La rueda como medio de transporte o como herramienta, por ejemplo, para un alfarero. • El engrane. • La catapulta como arma de combate. • El molino, ya sea para obtener agua de las entrañas de la tierra, o como moledor de granos. Y así una gran variedad de máquinas que antiguamente se creaban para facilitarle las tareas a los hombres. Pero no todos estos artefactos tenían una utilidad, algunas máquinas solamente servían para entretener a sus dueños, y no hacían nada más que realizar movimientos repetitivos ó emitir sonidos. Cabe mencionar que los árabes fueron unos maestros en la construcción de autómatas y en la precisión de sus cálculos, y como ejemplo de ello, se puede mencionar que inventaron el reloj mecánico, así como sus grandes aportaciones a la astrología. También los ingenieros griegos aportaron grandes conocimientos a los autómatas, aunque su interés era más bien hacia el saber humano más que hacia las aplicaciones prácticas. Historia de los autómatas. Desde hace cientos de años antes de Cristo, se comenzaron a crear autómatas, antecesores de los autómatas actuales; en seguida se muestra una lista de autómatas creados, y que se tienen como referencia para tomarlos como antecesores. 74 http://isaacasimov.garcia-cuervo.com/Robotica.htm#Historia 83 Solamente por citar algunos de estos inventos, se mencionan los siguientes: • En 1500 a. C., Amenhotep, hermano de Hapu, construye una estatua de Memon, el rey de Etiopía, que emite sonidos cuando la iluminan los rayos del sol al amanecer. • En el 500 a. C., King-su Tse, en China, inventa una urraca voladora de madera y bambú y un caballo de madera que saltaba. • Entre el 400 y 397 a. C., Archytar de Tarento construye un pichón de madera suspendido de un pivote, el cual rotaba con un surtidor de agua o vapor, simulando el cuelo. Archytar es el inventor del tornillo y la polea. • Entre el 300 y 270 a. C., Cresibio inventa una clepsidra (reloj de agua) y un órgano que funciona con agua. • Entre el 220 y 200 a. C., Filon de Bizancio inventó un autómata acuático y la catapulta repetitiva. • En el año 206 a. C., fué encontrado el tesoro de Chin Shih Hueng Ti consistente en una orquesta mecánica de muñecos, encontrada por el primer emperador Han. • En el año 62 d. C., Hero de Alejandría hace un tratado de autómatas, un famoso registro de aplicaciones de la ciencia que pueden ser demostrados por medio de un autómata, así como su teatro automático en el cual, las figuras que se encuentran montadas en una caja, cambian de posición ante los ojos de los espectadores: pájaros cantores, trompetas que suenan, medidores de la fuerza del vapor, animales que beben, termoscopios, sifones y máquinas que operaban con monedas. • Año 335 d. C., Hsieh Fec construye un carro con cuatro ruedas con la figura de Buda, hecha de madera de sándalo. • En el año 700 d. C., Huang Kun construyó barcos con figuras de animales, cantantes, músicos y danzarines que se movían. • En el 770 d. C., Yang Wu-Lien construye un mono que extiende sus manos y dice "¡Limosna! ¡Limosna!", guardando su recaudación en una bolsa cuando alcanza un peso determinado. • El príncipe Kaya, hijo del Emperador Kannu, construye en el año 840 una muñeca que derrama agua. • En el 890, Han Chih Ho hace un gato de madera que caza ratas, y moscas tigre que bailan. • El sabio príncipe hindú Bhoja, escribe, en el año 1050, el SamaranganaSutradhara, que incluye comentarios sobre la construcción de máquinas o yantras. • Alberto Magno (1204 - 1272) crea un sirviente mecánico. • Roger Bacon (1214 - 1294) construye, después de 7 años, una cabeza que habla. • En el año 1235, Villard d’Honnecourt hace un libro de esbozos que incluyen secciones de dispositivos mecánicos, como un ángel autómata, e indicaciones para la construcción de figuras humanas y animales. 84 • Reloj con forma de gallo que canta en la catedral de Strasbourg, que funcionó desde 1352 hasta 1789. • Leonardo Da Vinci construye en el año 1500 un león automático en honor de Luis XII que actúa en la entrada del Rey de Milán. • Salomón de Caus (1576 - 1626) construye fuentes ornamentales y jardines placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza. • En 1640, René Descartes inventó un autómata al que se refiere como "mi hijo Francine". • En 1662, se abre en Osaka el teatro Takedo de autómatas. • Jacques de Vaucanson, construye el pato, el autómata más conocido; un pato hecho de cobre, que bebe, come, grazna, chapotea en el agua y digiere su comida como un pato real. Previamente construye un flautista y un tamborilero en 1738; el primero consistía en un complejo mecanismo de aire que causaba el movimiento de dedos y labios, como el funcionamiento normal de una flauta. • Los Maillardet (Henri, Jean-David, Julien-Auguste, Jacques-Rodolphe) hicieron su aparición a finales del siglo XVIII y principios del XIX, construyen un escritordibujante, con la forma de un chico arrodillado con un lápiz en su mano, escribe en inglés y en francés y dibuja paisajes. Construyen un mecanismo "mágico" que responde preguntas y un pájaro que canta en una caja. • Robert Houdini construye una muñeca que escribe. También realiza un pastelero, un acróbata, una bailarina en la cuerda floja, un hombre que apunta con una escopeta y una artista del trapecio. • Thomas Alva Edison construyó en el año 1891 una muñeca que habla. Como nos podemos dar cuenta, los autómatas construidos hasta este entonces, solamente servían para entretener a propios y extraños, no tenían una aplicación práctica en alguna área en específico. "Estas máquinas funcionaban generalmente por medio de movimientos ascendentes de aire o agua caliente. El vertido progresivo de un líquido provocaba rupturas de equilibrio (o bien la caída de un peso) en diversos recipientes provistos de válvulas; otros mecanismos se basaban en palancas o contrapesos. Mediante sistemas de este tipo se construían pájaros artificiales que podían "cantar" o "volar", o puertas que se abrían solas. Las construcciones de la escuela de Alejandría se extendieron por todo el Imperio Romano y posteriormente por el mundo árabe. En el siglo XIII, Al-Djazari apareció como el heredero de todas ellas con la publicación de su "Libro del conocimiento de los procedimientos mecánicos", uno de cuyos grabados se reproduce aquí. Se trata de una fuente de distribución de agua." 85 4.3.2 Estado del Arte QUE SON LOS EDIFICIOS INTELIGENTES? 75 Son simplemente, construcciones con un nivel de alta tecnología en todos sus procesos. Eso quiere decir que TODOS los profesionales que intervienen en el DISEÑO, CONSTRUCCIÓN, INTERVENTORíA, GERENCIA DE PROYECTO, COMERCIALIZACIÓN y demás áreas vitales para el proyecto, deben tener lo conocimientos necesarios para integrar nuevos aspectos que de forma sincronizada permitan disfrutar del concepto de EFICIENCIA. Una construcción inteligente, es una construcción EFICIENTE, eso quiere decir que puede hacer mucho con la mínima cantidad de recursos. Por ejemplo, un pequeño centro de salud, en un municipio apartado, que recicle sus desperdicios, soporte los cortes de energía eléctrica con foto celdas solares, mantenga una temperatura adecuada aprovechando la arborización y la orientación de sus fachadas de acuerdo al recorrido del sol, controle sus usuarios, empleados, proveedores y visitantes con un sencillo sistema de video que sirve de control de acceso y centralice la iluminación en el cuarto de vigilancia; es mucho más "inteligente" que un supermoderno edificio con altísima tecnología, sobrecotos enormes y sofisticados sistemas que ni siquiera se hablan unos con otros. El concepto de EFICIENCIA comienza a verse por la simplicidad - y es que lo más simple, casi siempre es lo que mejor funciona y lo que menos falla -, seguido de la flexibilidad y la capacidad de proyectarse a la necesidades en un futuro. Desde el punto de vista Electrónico, - que es nuestro fuerte - debo decir que un edificio inteligente debe albergar tecnología en cuatro frentes diferentes: Seguridad, Comunicaciones, Apoyo Logístico y Automatización de procesos. Sin embargo no sirve de nada invertir mucho dinero en estas tecnologías, si por ejemplo, al arquitecto se le olvidaron los parqueaderos de visitantes, o si por pensar en mucha seguridad cambió los espacios de naturaleza abierta por muros de 3 metros con cero estética. Hablar de la parte electrónica implica un correcto balance entre todos los aspectos concernientes al proyecto. Volvamos a lo nuestro, la tecnología de punta..... Cuando hablamos de seguridad, casi siempre pienso en Circuito Cerrado de TV, control de acceso, alarmas contra intrusión e incendio, sistemas de apoyo a requisas y seguridad en la información. Una adecuada INTEGRACION entre estos subsistemas permite un nivel de seguridad adecuado, cumpliendo las normas internacionales y permitiendo que la información se centralice en un solo lugar. Si hablamos de comunicaciones, debemos pensar en las redes telefónicas, las redes de datos -tan indispensables como las anteriores hoy en dia-, las redes 75 http://edificiosinteligentes.blogspot.com/, Ing. Germán Alexis Cortés, Consultor - Automatización de Edificios. Mayo 2006 86 multimedia de audio y video que reemplazan a las tradicionales de sonido ambiental y televisión comunal, redes de sonido y audio profesional (solo para auditorios o áreas similares) y todos los canales de comunicación hacia el exterior. Cuando nos referimos a las redes de Automatización de procesos, estamos hablando de control centralizado de iluminación - que es lo que mas consume energía-, supervisión y control de equipos electromecánicos (ascensores, aire acondicionado, motobombas, plantas eléctricas, UPS, subestación, entre otras), control de fluidos, distribución del control en toda la edificación y centralización de la información en un solo punto que de forma automática realice operaciones con la mínima intervención del operador. Finalmente los sistemas de apoyo logístico, se refieren a todo los elementos electrónicos que permiten una operación de cada sitio con mayor seguridad y confort. Nos referimos a los sistemas de información administrativos para control de inventarios, ventas y contabilidad en general, a las redes especiales para fines muy especiales (por ejemplo el sistema de llamado de enfermeras en un hospital, o el sistema de control de taquillas en en estadio o el sistema de redes inalámbricas para hacer pedidos en un restaurante o el sistema de control de inventarios por RFID en un almacén de cadena, solo por dar algunos ejemplos). La INTEGRACIÓN real de estos cuatro grandes sistemas electrónicos, compartiendo información, registrando todo cuanto acontece en medios electrónicos para su posterior investigación, disminuyendo la intervención de humanos en los procesos y alertando al operador cuando eventos anormales ocurran permiten tener un adecuado sistema electrónico que apoya el concepto de edificio inteligente en nuestro medio. Quiero terminar el dái de hoy, recordando que lo simple siempre es lo mejor.... el grado de sofisticación debe reducirse al máximo en cada caso. Pero también quiero recordar que los extremos son malos, las cosas muy simples son buenas solo si hacen lo que realmente queremos que hagan. Asi que un buen diseño de edificio inteligente es aquel que logra un balance perfecto entre alta tecnología, recursos económicos y capacidad operativa. 4.34. COMUNICACIONES 4.4.1 Definición comunicación76. (Del lat. communicatĭo, -ōnis). 1. f. Acción y efecto de comunicar o comunicarse. 2. f. Trato, correspondencia entre dos o más personas. 3. f. Transmisión de señales mediante un código común al emisor y al receptor. 76 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006. http://www.rae.es. 87 4. f. Unión que se establece entre ciertas cosas, tales como mares, pueblos, casas o habitaciones, mediante pasos, crujías, escaleras, vías, canales, cables y otros recursos. 5. f. Cada uno de estos medios de unión entre dichas cosas. 6. f. Papel escrito en que se comunica algo oficialmente. 7. f. Escrito sobre un tema determinado que el autor presenta a un congreso o reunión de especialistas para su conocimiento y discusión. 8. f. Ret. Figura que consiste en consultar la persona que habla el parecer de aquella o aquellas a quienes se dirige, amigas o contrarias, manifestándose convencida de que no puede ser distinto del suyo propio. 9. f. pl. Correos, telégrafos, teléfonos, etc. medio de comunicación vía de comunicación 4.5. ELECTROMEDICINA 4.5.1 Definición Electromedicina77. 77 REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es. 88 CAPITULO 5. DISEÑO 5.1 DEFINICIÓN DE ANÁLISIS Y SÍNTESIS. Los términos análisis y síntesis viene del Griego y se refiere literalmente “separar” y “ Reunir”, respectivamente. Estos términos son usados en las más modernas disciplinas científicas, en las matemáticas, lógica, economía, psicología y sobretodo en la ingeniería, para denotar algunos procesos de investigación. En general Análisis se definido como un proceso por el cual fragmentamos un intelectual o sustancial conjunto en sus partes o componentes. Síntesis es definido como un proceso opuesto, por el cual se combinan elementos separados o componentes para formar un conjunto coherente. En la página http://www.swemorph.com/pdf/anaeng-r.pdf se encuentra una definición completa de estos dos términos. Otra Definición análisis78. 1. m. Distinción y separación de las partes de un todo hasta llegar a conocer sus principios o elementos. 2. m. Examen que se hace de una obra, de un escrito o de cualquier realidad susceptible de estudio intelectual. 3. m. Tratamiento psicoanalítico 4. m. Gram. Examen de los componentes del discurso y de sus respectivas propiedades y funciones. 5. m. Inform. Estudio, mediante técnicas informáticas, de los límites, características y posibles soluciones de un problema al que se aplica un tratamiento por ordenador. 6. m. Mat. Parte de las matemáticas basada en los conceptos de límite, convergencia y continuidad, que dan origen a diversas ramas: cálculo diferencial e integral, teoría de funciones, etc. 7. m. Med. análisis clínico. ~ cualitativo. 1. m. Quím. El que tiene por objeto descubrir y aislar los elementos o ingredientes de un cuerpo compuesto. ~ cuantitativo. 1. m. Quím. El que se emplea para determinar la cantidad de cada elemento o ingrediente. ~ dimensional. 1. m. Fís. Método que se ocupa del análisis de las dimensiones de las magnitudes físicas, y que permite establecer directamente relaciones entre las que intervienen en un proceso, sin necesidad de realizar un análisis completo y detallado. ~ espectral. 78 http://www.rae.es/ 89 1. m. Fís. Método de análisis químico cualitativo, y en algunos casos cuantitativos, mediante técnicas espectroscópicas. ~ factorial. 1. m. Estad. Método estadístico usado para cuantificar la importancia de cada uno de los factores actuantes en un fenómeno. síntesis79. 1. f. Composición de un todo por la reunión de sus partes 2. f. Suma y compendio de una materia u otra cosa. 3. f. Quím. Proceso de obtención de un compuesto a partir de sustancias más sencillas. ~ abiótica. 1. f. Bioquím. Producción de biopolímeros a partir de moléculas orgánicas sencillas. 5.2 MÉTODO DEL DISEÑO EN INGENIERÍA. El método ingenieril, es una actividad de toma de decisiones para desarrollar materiales productos o procesos que satisfagan una necesidad. En este sentido es muy diferente al trabajo científico; porque la motivación para esta actividad es la curiosidad intelectual del científico, mientras que el ingeniero trabaja por la identificación de una necesidad.80 De otra parte el método ingenieril se define: como una estrategia para producir el mejor cambio con los recursos disponibles en una situación deficientemente entendida o incierta. PASOS DEL MÉTODO INGENIERIL Parte de la una necesidad e identifica el problema Partir de una necesidad y definir ampliamente un problema, implica decidir entre múltiples soluciones posibles la que consideramos más apropiada, una amplia definición de lo que se intenta solucionar, esto incluye el recabar el mayor número de datos posibles. Es común el error de no poner atención a la recopilación de datos, lo que lleva a adoptar soluciones incorrectas. Determina especificaciones Determinar las especificaciones significa, ampliar más los detalles, o sea, hacer consideraciones como las siguientes: ¿Cuáles son las necesidades de los usuarios? ¿Qué debería ser la solución? ¿Cuáles son los límites del problema Denominados también imposiciones y restricciones? 79 80 REAL ACADEMIA ESPAÑOLA, marzo de 2006. http://www.rae.es Wright, Paul, introducción a la ingeniería, Adisson Wesly, DEL: 1994. 90 ¿Cuáles son las características de la población que usara el producto? Hace un estudio de factibilidad Realizar un estudio de factibilidad, es el proceso de definir exactamente qué es el proyecto y qué temas estratégicos debe considerarse para determinar su factibilidad o posibilidad de éxito. Es un análisis preliminar de los requerimientos. Es la diligencia que todo ingeniero o empresa debe hacer antes de empezar cualquier proyecto, pues el estudio debe ser capaz de indicar si se continúa o no, o se cambiaran los requerimientos a unos más reales. En cierto sentido un estudio de factibilidad es un corto análisis formal del problema y su objetivo es dar al ingeniero una clara evaluación de las posibilidades técnicas, económicas, sociales y políticas de la solución. Puede incluir estudios de documentos, búsquedas de información y simulaciones. La clarificación del problema implica, revisar cuestionamientos como: ¿Cuál es el paso fundamental que se mejorará? ¿Quiénes serán los usuarios y su papel? ¿Cuáles son los requerimientos más importantes de la solución? ¿Cuáles partes del problema serán las más riesgosas para manejar? ¿Qué modificaciones futuras se pueden esperar racionalmente? ¿Qué soluciones existen en el mercado o quién podría suministrar otras? Realiza una búsqueda de información La búsqueda de la información requiere retomar sobre el problema y sus posibles soluciones. toda lo información posible, Ya la definición del problema y la determinación de las especificaciones exigen la búsqueda de información y a su vez, debe establecer los principales interrogantes. Estos pueden ser respondidos con los conocimientos y experiencias del mismo ingeniero o de los miembros del equipo, pues muchas veces es posible que se hayan solucionado problemas similares o existan soluciones disponibles en el mercado en condiciones económicas favorables y bastaría con adoptarlas. Desarrolla conceptos alternos de diseño El desarrollo de conceptos relativos al diseño depende de los campos; ya sea un ingeniero químico, un ingeniero mecánico, un ingeniero electrónico, un arquitecto o un diseñador gráfico abarca diferentes conceptos del diseño en su propio campo de interés. 81 Hallar las componentes físicas correctas de una estructura física (hallar, física) 81 DIXON,Cork. Diseño en Ingeniería. Inventiva, análisis y toma de decisiones. Limusa. Wiley. México. 1970. 91 Una actividad cuyo objetivo es solucionar un problema (objetivo, actividad de solución) Toma de decisiones frente a la incertidumbre con grandes penas `para el error (decisiones, incertidumbres, penas). Simular lo que queremos hacer antes de hacerlo, tantas veces como sea necesario para tener confianza en el resultado final (simular, confianza). El factor condicionante para aquellas partes del producto que estarían en contacto con la gente (contacto con la gentes) Relacionar el producto con la situación para dar una satisfacción (producto, satisfacción). Llevar a cabo un acto de fe muy complicado (acto de fe) La solución óptima a la suma de necesidades verdaderas de un particular conjunto de circunstancias (necesidades verdaderas) El salto imaginativo de los hechos presentes a las posibilidades futuras (salto imaginativo) Una actividad creativa que trae a la existencia algo nuevo y útil que no existía previamente (actividad creativa, útil que no existía) La creación de un resultado final que satisface una necesidad humana mediante una acción definida (creación, resultado que satisface necesidad humana, acción) La actividad del diseño es planear y realizar una estrategia creativa para llevar a cabo una tarea física, mental, moral o artística o satisfacer una necesidad. El propósito del diseño es: . Satisfacer una especificación funcional dada . Conformarse a la limitación del objetivo . Responder a los requerimientos implicados o explícitos en la realización (tiempo, espació, energía, costos, etc.) y estructura (estilo, simplicidad, etc.) . Satisfacer las restricciones del proceso mismo de diseño. Selecciona el diseño más promisorio El ingeniero ha de acomodar criterios múltiples, y luego ir eliminando las alternativas deficientes o de inferior calidad, y los que se van seleccionando se someten a criterios más refinados, hasta encontrar el óptimo. Implementa un modelo matemático o físico 92 Otra actividad que se realiza en este contexto es el análisis de valor, que se aplica a los procedimientos lo mismo que a los productos y su meta es reducir el costo excesivo en el diseño. El concepto básico es que muchos de los diseños propuestos se pueden mejorar notablemente, ya que el diseño original puede presentar costos excesivos, aunque no existe ninguna limitante para aplicar la técnica de análisis de valor desde la primera vez. Una manera de hacer este análisis es definir y evaluar la función. Hay que hacer una distinción entre valor y función. Al definir las funciones se deben expresar con un nombre y un verbo y dividir las de cada componente en primarias y secundarias. Esta cuidadosa definición de las funciones permitirá tener en cuenta las consideraciones ergonómicas y ambientales necesarias. Así con todas estas metodologías se puede optimizar el diseño en todos los sentidos y se estará en condiciones de avanzar al siguiente paso del método ingenieril. Determina la relación entre las dimensiones y los materiales del producto Esto significa comprobar que los materiales es decir los insumos, en sus características, respondan plenamente a la magnitud del diseño. Al igual se debe constatar que estén disponibles en la cantidad, formas, dimensiones y acabados que se refieren. Optimiza el diseño Para optimizar el diseño, se requiere de las simulaciones con el modelo de diseño más promisorio y las comprobaciones de la concordancia entre las dimensiones y los materiales permiten optimizar el diseño seleccionado. Tales actividades permiten detectar cuando se producen equivocaciones, fallas, accidentes, reparaciones, y cambios si las decisiones se han basado en predicciones que no son precisas. Aun sin recurrir a herramientas tan sofisticadas, los diseños se pueden optimizar teniendo presente que deben ser tan simples como se pueda. A menudo una solución de ingeniería, que es específicamente simple en comparación con lo que realiza, se describe como elegante. Puesto que la complejidad es lo contrario de la sencillez, la elegancia es una regla de oro en el método ingenieril. Muchas veces la complejidad de una solución puede estimarse satisfactoriamente contando sus piezas o elementos (resistores, transistores, engranes, levas, etc.) pero la razón anterior que expresa la elegancia es difícil de cuantificar. Evalúa el diseño optimizado, mediante análisis minuciosos del modelo matemático o por ensayo de los modelos físicos Establecido el diseño (o solución) y sus posibilidades y realizada su optimización, es necesario evaluarlo de nuevo mediante análisis minuciosos del modelo matemático o por ensayo de los modelos físicos. 93 En el primer caso debe resolverse el modelo para las condiciones optimizadas y comparar estos resultados con los deseados. De conocer todas las regulaciones que gobiernan no solamente los ensayos sino también el futuro desempeño de la solución en cuestión. Aunque en el país existen las normas ICONTEC y hay podemos organizaciones de normas como las ASTM o las DIN, lo normal será buscar conformidad con las normas internacionales ISO. Comunica las decisiones de diseño al personal de producción La comunicación personal del diseño, se refiere al desarrollo y producción de elementos físicos o no, debe entenderse en sentido lato de que la solución adoptada debe comunicarse claramente a quines deben adoptarla, sea el personal de producción como cualquier tipo de usuario. Debemos ser cuidadosos de expresar nuestras conclusiones de manera que puedan ser comprendidas por la persona común. La comunicación sobre la solución usualmente requería la preparación de informes, planos, manuales y demás especificaciones. A veces se incluyen además prototipos u otra clase de modelos físicos. Hay que describir con los detalles suficientes los atributos físicos y las características de funcionamiento de la solución propuesta, de manera que las personas que deben aprobarla, los encargados de su construcción, y quienes la manejarán y conservarán, puedan desempeñar satisfactoriamente sus funciones. El hecho de que alguien distinto de nosotros por lo general construya, opere y cuide nuestras obras, hace que adquiera especial importancia la presentación cuidadosa por escrito y la comunicación exacta de ellas. Controla la producción El control de la producción, es un ideal para un ingeniero solo, a menos que se trate de una pequeña empresa, pero es una posibilidad real para una organización grande y es el meollo de la filosofía de la llamada calidad total. Esto es fundamental porque entre los diseños y prototipos y los productos reales puede haber grandes diferencias, bien porque no se siguen estrictamente las especificaciones de diseño, bien porque no se cuenta con los equipos adecuados para efectuar los procesos de fabricación y montaje, porque la habilidad y la experiencia del personal encargado de esta fase son suficientes, por la combinación de varios de los anteriores factores. Analiza las fallas y retroalimenta el diseño y la fabricación El análisis de fallas es una disciplina especializada para la que no todos los ingenieros están capacitados. Sin embargo los diseñadores en general, deben 94 estar en capacidad de apreciar las causas por las que su diseño fallo. Si el ingeniero o grupo de trabajo puede realizar este análisis sería magnifico, en caso contrario habrá que asesorarse de los especialistas. En cualquier evento la determinación del por qué de una falla es fundamental para hacer las correcciones necesarias sea en el diseño, en el material utilizado, en el proceso de fabricación y montaje, en la operación o en el mantenimiento. Todas las causas de fallas no son, de ninguna manera imputables al diseño. En el caso de los elementos y sistemas materiales, además de las causas señaladas, el ambiente es fundamental y procesos como la oxidación, la corrosión, la degradación térmica el desgaste y otras causas, que a veces son del todo previsibles en el diseño, pueden ocasionar la falta. En los casos de sistemas no materiales además de problemas de lenguaje y comprensión la naturaleza de las organizaciones sociales y su comportamiento lleva a veces a variaciones y situaciones nuevas que cambian por completo el entorno para el que se propuso una solución. Obviamente, que de todas maneras, el estudio de estas fallas llevará al mejoramiento del diseño en todos los sentidos. 95 SEGUNDA UNIDAD: CONCEPTOS BÁSICOS DE INGENIERÍA ELECTRÓNICA. CAPÍTULO 6. CONCEPTOS 6.1 CONCEPTOS FÍSICOS NATURALEZA ELÉCTRICA DE LA MATERIA Desde la antigüedad se conoce la existencia de una interacción entre los objetos materiales que no se pone de manifiesto en todo momento, como ocurre con el peso. Sólo se aprecia directamente cuando la materia está en un estado determinado; cuando está electrizada. De todos es conocido el efecto de frotar una varilla de plástico o de vidrio: estas sustancias adquieren entonces la propiedad de atraer pequeños objetos. Hoy se sabe que la interacción eléctrica tiene su origen en una propiedad de las partículas elementales llamada carga eléctrica. A diferencia de la masa, que existe bajo una única forma, la carga puede ser de dos tipos, que designamos como positiva y negativa. Esto se evidencia en el hecho de que los cuerpos electrizados pueden atraerse o repelerse. Hay partículas que carecen de carga y se dice que son neutras. A pesar de que la fuerza entre cargas eléctricas es mucho más intensa que la atracción gravitatoria, no la percibimos en condiciones normales. La razón es que la materia ordinaria está compuesta por partículas con carga positiva (protones) y otras con carga igual pero negativa (electrones), además de las que no tienen ninguna carga o neutrones. En una muestra de materia común hay el mismo número de protones que de electrones, por lo que sus efectos eléctricos sobre otros cuerpos tienden a cancelarse. Sólo se perciben cuando hacemos que la muestra tenga un exceso o defecto de electrones transfiriéndolos a otro lugar. Es lo que ocurre cuando se frota una varilla de vidrio (pierde electrones y adquiere carga +) o una de baquelita (gana electrones y se carga negativamente). Sin embargo la carga total no sufre variación; se conserva. Lo que ocurre es que los electrones se transfieren al paño con que se frota o son cedidos por él, quedando con una carga igual y opuesta a la del cuerpo electrizado. Un cuerpo cargado atrae a otro neutro porque atrae a las cargas de signo contrario y repele a las del mismo signo, produciendo una separación o polarización de las cargas del cuerpo neutro. Como veremos, la fuerza electrostática disminuye con la distancia, por lo que la atracción es más intensa que la repulsión. Si entran en contacto, el exceso de cargas puede repartirse entre los dos cuerpos, que entonces se repelerán. 96 Una cantidad de carga cualquiera sólo puede ser múltiplo entero de la carga del electrón. Decimos que está cuantizada, que se presenta en cantidades discretas o cuantos. Si bien la carga elemental es muy pequeña, no es infinitesimal; por tanto, cuando hablemos de diferenciales de carga entenderemos que se trata de una cantidad pequeña a escala macroscópica pero grande a escala atómica. La interacción eléctrica es la responsable de la estructura de los elementos y compuestos químicos que forman la materia. Los electrones de un átomo se unen a los protones del núcleo mediante fuerzas eléctricas. A su vez, los átomos se unen entre sí de diversas formas en virtud de atracciones eléctricas o enlaces. La manera en que se realizan dichos enlaces da lugar a la enorme variedad de sustancias, con sus propiedades tan diferentes: desde el estado de agregación (sólidos, líquidos o gases) hasta la conductividad, todas tienen su origen y explicación en las interacciones entre cargas. Por ejemplo, en algunas sustancias los electrones están fuertemente ligados a los núcleos y su movilidad es escasa: se dice que son aislantes eléctricamente. Sin embargo hay otras, como los metales, que tienen electrones prácticamente libres para desplazarse por la sustancia y son capaces de transportar la carga eléctrica: decimos que son conductores. En realidad hay toda una gama entre uno y otro extremo. En resumen: - Las cargas eléctricas existen bajo dos formas: positivas y negativas. Las cargas del mismo signo se repelen y las de distinto signo se atraen. - La carga está cuantizada: siempre es un múltiplo entero de la carga elemental. - La materia en su conjunto es neutra, con igual número de cargas positivas que negativas. La carga total, considerando su suma algebraica, se conserva. 6.1.1 Carga eléctrica Lá matéria está formada por átomos eletricamente neutros. Cada átomo posee un pequeño núcleo que contiene protones dotados cada uno con una carga positiva y neutrones de carga nula. Rodeando al núcleo existe un número igual de electrones negativamente cargados. El electrón y el protón tienen cargas de igual magnitud pero distinto signo. La carga del protón es e y la del electrón -e, siendo e la unidad fundamental de carga. Todas las cargas se presentan en cantidades enteras de la unidad fundamental de carga e. Es decir, la carga está cuantizada. Toda carga Q presente en la naturaleza puede escribirse de la forma Q = Ne, siendo N un número entero. La cuantización de la carga no se observa normalmente porque N es casi siempre un número muy grande. 97 La carga no se crea, sino simplemente se transfiere. La carga neta de un sistema considerada globalmente no cambia. Es decir, la carga se conserva. La ley de conservación de la carga es una ley fundamental de la naturaleza. Aunque en ciertos procesos puede ocurrir que los electrones se creen o se aniquilen, en todos se producen o se destruyen cantidades iguales de cargas negativas y positivas, de manera que la carga del universo no varía. La unidad de carga es el Culombio. La unidad fundamental de carga eléctrica e está relacionada con el culombio por e = 1,60 x 10-19 C. Materiales conductores: aquellos en los que parte de los electrones pueden moverse libremente en el seno del material (metales). Materiales aislantes: todos los electrones están ligados a los átomos próximos y ninguno puede moverse libremente (madera, vidrio). 6.1. 2 Ley de Coulomb82 La fuerza ejercida por una carga sobre otra fue estudiada por Charles Coulomb (1736-1806) mediante una balanza de torsión de su propia invención. Figura 6.1: Balanza de torsión de Coulomb En el experimento de Coulomb las esferas cargadas tenían un radio mucho menor que la distancia entre ellas, de modo que las cargas podían considerarse como puntales. Coulomb utilizó el fenómeno de inducción para producir esferas 82 TIPLER, Paúl A, Física, REVERTÉ, Barcelona 1996 98 igualmente cargadas y poder variar la carga depositada sobre las esferas. Por ejemplo, comenzando con una carga q0 sobre cada esfera, podía reducir la carga a 1 / 2q 0 conectando a tierra una de las esferas para descargarla y después poniendo las dos esferas en contacto. Los resultados de los experimentos de Coulomb y otros científicos sobre las fuerzas ejercidas por una carga puntual sobre otra, se resumen en la ley de Coulomb: La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de la línea que las une. La fuerza varía inversamente con el cuadrado de la distancia que separa las cargas y es proporcional al producto de las cargas. Es repulsiva si tienen signos iguales y de atracción si tiene signos opuestos. La figura 7.2 muestra las fuerzas ejercidas entres dos cargas del mismo signo y entre dos cargas del signo contrario. Figura 7.2: (a) Las cargas iguales se repelen, mientras que (b) las cargas opuestas se atraen. La ley de Coulomb puede establecerse más simplemente utilizando una expresión matemática. Sean q1 y q2 las dos cargas puntuales separadas una distancia r12 el módulo del vector r12 es r12 que señala desde la carga q1 a la carga q2. La fuerza ejercida F12 por la carga q1 sobre la carga q2 viene dada entonces por: En donde r12 es el vector unidad que señala desde q1 hacia q2 y k es la constante de Coulomb que tiene el valor k= 8,99 x 1O9 N·m2/C2 dada por la ecuación: La fuerza F21, ejercida por q2 sobre q1 es el valor negativo de F12 según la tercera ley de Newton. Es decir, F21, posee el mismo módulo de F12 pero su sentido es opuesto. La magnitud de la fuerza eléctrica ejercida por una carga q1 sobre otra carga q2 situada a la distancia r viene dada por: 99 Donde: Si ambas cargas tienen el mismo signo, es decir, si ambas son positivas o ambas negativas, la fuerza es repulsiva. Si las dos cargas tienen signos opuestos la fuerza es atractiva. El principio de superposición de fuerzas se cumple para un sistema discreto de cargas: la fuerza neta ejercida sobre una carga por un sistema de cargas se determina por la suma de las fuerzas separadas ejercidas por cada carga del sistema. La constante eléctrica K viene a ser 1020 veces mayor que la constante gravitatoria G. Lo que indica que el campo gravitatorio es muy débil comparado con el eléctrico. Esta diferencia tiene una consecuencia muy útil: en el estudio de los fenómenos eléctricos los efectos gravitatorios son despreciables. 6.1.3 Corriente La electricidad ha sido uno de los descubrimientos más importantes de los últimos siglos. Ella ha conducido a grandes avances industriales y al alcance de altos niveles de confort en el mundo moderno. La electricidad o corriente eléctrica es el flujo de electrones de una localización a otra, a través de un conductor. Históricamente, la corriente eléctrica se definió como un flujo de cargas positivas y se fijó el sentido convencional de circulación de la corriente como un flujo de cargas desde el polo positivo al negativo. Sin embargo, posteriormente se vio que en sólidos metálicos, como los cables, las cargas positivas no se mueven y solamente lo hacen las negativas, esto es los electrones, los cuales fluyen en sentido contrario al convencional, si bien este no es el caso en la mayor parte de los conductores no metálicos. Una corriente eléctrica, puesto que se trata de un movimiento de cargas, produce un campo magnético. En el Sistema Internacional de Unidades, la unidad de medida de la intensidad de corriente eléctrica es el amperio, representado con el símbolo A. El aparato utilizado para medir corrientes eléctricas es el galvanómetro. 100 Corriente continua o directa: es el flujo de electrones en una sola dirección. Ej: batería automóvil; rayo. Corriente alterna: es el flujo bidireccional de electrones a través de un conductor, en el tiempo. El paso de electrones en una dirección y luego en otra, constituye un ciclo. Se mide en Hertz (Hz).En Chile la frecuencia normal es de 50 Hz y en Estados Unidos de Norteamérica (EE.UU.), de 60 ciclos por segundo. Intensidad: es la cantidad de flujo eléctrico a través de un conductor. Otra definición no dice que la cantidad de carga eléctrica que pasa a través de una sección en una unidad de tiempo es llamada Intensidad. La unidad en el Sistema internacional de unidades es el amperio (A). El valor i de la intensidad instantánea será: Si la intensidad permanece constante, en cuyo caso se denota I, y utilizando incrementos finitos de tiempo, se puede definir como: Si la intensidad es variable la fórmula anterior da el valor medio de la intensidad en el intervalo de tiempo considerado. 6.1.4 Voltaje Es la fuerza fundamental o “presión” que causa la electricidad al fluir a través de un conductor. Se conoce también como diferencia de potencial y se mide en voltios (V). La diferencia de potencial entre dos puntos (1 y 2) de un campo eléctrico es igual al trabajo que realiza dicho campo sobre la unidad de carga positiva para transportarla desde el punto 1 al punto 2. Es independiente del camino recorrido por la carga y depende exclusivamente del potencial de los puntos 1 y 2 en el campo; se expresa por la fórmula: Donde: V1 - V2 es la diferencia de potencial E es la Intensidad de campo en newton/culombio 101 r es la distancia en metros entre los puntos 1 y 2 Igual que el potencial, en el Sistema Internacional de Unidades la diferencia de potencial se mide en voltios. Si dos puntos que tienen una diferencia de potencial se unen mediante un conductor, se producirá un flujo de corriente eléctrica. Parte de la carga que crea el punto de mayor potencial se trasladará a través del conductor al punto de menor potencial y, en ausencia de una fuente externa (generador), esta corriente cesará cuando ambos puntos igualen su potencial eléctrico. Que dos puntos tengan igual potencial eléctrico no significa que tengan igual carga. 6.1.5 Ley de OHM La historia nos dice que esta ley fue formulada por Georg Simón Ohm en 1827, en la obra Die galvanische Kette, mathematisch bearbeitet (Trabajos matemáticos sobre los circuitos eléctricos), basándose en evidencias empíricas. La formulación original, es: Siendo J la densidad de la corriente, σ la conductividad eléctrica y E el campo eléctrico (J y E magnitudes vectoriales), sin embargo se suele emplear fórmulas simplificadas para el análisis de los circuitos. La ley de Ohm, establece que la intensidad de la corriente eléctrica que circula por un dispositivo es directamente proporcional a la diferencia de potencial aplicada e inversamente proporcional a la resistencia del mismo, según expresa la fórmula siguiente: En donde, empleando unidades del Sistema internacional: I = Intensidad en amperios (A) V = Diferencia de potencial en voltios (V) R = Resistencia en ohmios (Se representa con la letra griega Ω). ¿De dónde se deduce esta ley? 102 La relación , que relaciona la Densidad de corriente con la Conductividad para un Campo eléctrico dado, es la fundamental de la conducción eléctrica pero es más cómodo trabajar con tensiones e intensidades que con densidades y campos eléctricos por lo que si consideramos un conductor de longitud L y sección constante A por el que circula una corriente de intensidad I y sea Va y Vb la los potenciales en sus extremos y la conductividad σ es independiente de la densidad de corriente J tendremos, en condiciones normales, que: Al factor Se le denomina conductancia del hilo conductor. La inversa de la conductancia es la resistencia. Es decir Como la inversa de la conductibilidad (o conductividad) es la resistividad tendremos que por lo que la resistencia será: Por lo que ahora podemos poner la intensidad en función de R, quedando; Si a Va - Vb, ósea a la diferencia de potencial, le llamamos V tendremos que 103 6.2. CONCEPTOS ELECTRÓNICOS 6.2.1 Circuito. En telecomunicaciones, electrónica y electricidad el término circuito tiene los siguientes significados: 1. El trayecto completo entre dos terminales sobre los que se pueden establecer comunicaciones en unidireccionales o bidireccionales. 2. Un trayecto electrónico entre dos o más puntos, capaz de proporcionar un número de canales. 3. Un número de conductores enlazados con el propósito de transportar corriente eléctrica. 4. Un trayecto en bucle cerrado entre dos o más puntos, usado para la transferencia de señales. 5. Una serie de elementos eléctricos y/o electrónicos, tales como resistencias, inductancias, capacidades, transistores y fuentes de alimentación, interconectados en uno o más bucles cerrados. 6. Conjunto de componentes conectados eléctricamente entre si con el propósito de generar, transportar o modificar señales eléctricas. 7. Cuando los conductores están formados por láminas de material conductor depositado sobre una placa aislante, el conjunto se denomina circuito impreso. 6.2.2 Reglas de Kirchhoff Existen dos reglas, llamadas reglas de Kirchhoff, que se aplican a cualquier circuito en estado estacionario: 1. La suma algebraica de las variaciones de potencial a lo largo de cualquier bucle o malla del circuito debe ser igual a cero. 2. En un punto o nudo de ramificación de un circuito en donde puede dividirse la corriente. La suma de las corrientes que entran en el nodo debe ser igual a la suma de las corrientes que salen del mismo. La regla 1, llamada regla de las mallas, se deduce a partir del simple hecho de que en el estado estacionario la diferencia de potencial entre dos puntos cualesquiera es constante. En estado estacionario, el campo eléctrico en cualquier punto (fuera de una fuente fem) es debido a la carga acumulada sobre superficies de los 104 bornes de la batería, resistencia, cables, u otros elementos del circuito. Como el campo eléctrico es conservativo, existe una función potencial en cualquier punto del espacio (excepto en el interior de una fuente de fem). Según nos desplazamos a lo largo de la malla del circuito, el potencial puede aumentar o disminuir en función que encontremos con una resistencia o una batería, pero una vez recorrida la malla y se ha llegado al punto desde el que se comenzó, la variación neta de potencial debe ser igual a cero. Esta regla es una consecuencia directa del principio de conservación de la energía. Si tenemos una carga q en un punto donde el potencial es V, la energía potencial de la carga es qV. Cuando la carga recorre un bucle en un circuito, pierde o gana energía al atravesar resistencia, baterías u otros elementos, pero cuando vuelve a su punto de partida, su energía deber ser de nuevo qV. Figura 8: Circuito simple en el que no pueden sustituirse las resistencias en serie o en paralelo por su resistencia equivalente. Las diferencias de potencial a lo largo de las resistencias R1 y R2 no son iguales debido a la existencia de la fem ε2 y por tanto, no están en paralelo. Obsérvese también que estas resistencias no están conectadas entre sí por los extremos. Las resistencias no soportan la misma corriente y, por tanto, tampoco están en serio. La segunda regla de Kirchoff, llamada regla de los nudos, se deduce de la conservación de la carga. Esta regla es necesaria para circuitos de múltiples mallas que contienen puntos en los que la corriente puede dividirse. En estado estacionario no hay posterior acumulación de carga eléctrica en ningún punto del circuito, de tal modo que la cantidad de carga que entra en un punto debe ser igual a la que sale de dicho punto. La figura 9 muestra la unión o mudo de tres conductores que transportan las corrientes I1, I2 e I3. En un intervalo de tiempo ∆t , la carga I1 ∆t fluye entrando en la unión por la izquierda. En el mismo intervalo de tiempo las cargas I2 ∆t e I3 ∆t salen de la unión hacia la derecha. Puesto que no existe ninguna causa para que se creen o se destruyan cargas en este punto, la conservación de la carga implica la regla de los nudos que nos da: I1 = I 2 + I 3 105 Figura 9: Ilustración de la regla de los nudos de Kirchhoff. La corriente I1 en el punto a es igual a la suma I2 + I3 de las corrientes que salen del punto a. 6.2.3 Fuentes Es un dispositivo o subsistema electrónico que convierte la corriente alterna de la red en otro tipo de corriente adecuada para aplicación que se le vaya a dar. La fuente de energía se específica por el voltaje que aplica al equipo y por la corriente que puede suministrar, así como la naturaleza del voltaje, que puede ser: de corriente directa (CD), o de corriente alterna (CA). La manera de producir energía eléctrica puede ser por medios químicos para las fuentes de voltaje de CD, o bien por medios electromecánicos para las fuentes de CA; aunque también por medios electrónicos se puede construir una fuente de voltaje de CD (comúnmente llamado eliminador de batería), o fuente de voltaje de CA denominada generador de señales. Las fuentes electrónicas de CD (eliminador de batería) se fabrican a partir de una fuente de CA y componentes electrónicos y eléctricos que convierten el voltaje de CA a voltaje de CD. Las pilas o baterías es un ejemplo claro de un medio químico para producir energía eléctrica de CD. La red que alimenta a las industrias, casas, etc., es una fuente de energía eléctrica de CA. Es producida por medios electromecánicos y es transferida por equipos o componentes eléctricos a través de una red de distribución. Para las fuentes de voltaje de CD, se denotará esta variable eléctrica por la letra E, mientras que, para las fuentes de voltaje de CA se denotará por la letra e. Teniendo en cuenta los conceptos de variables eléctricas descritos anteriormente de corriente y voltaje, entonces una fuente de energía eléctrica se utiliza, para hacer funcionar a un aparato o equipo eléctrico o electrónico, al aplicarle un voltaje y suministrarle una corriente. Fuente de Voltaje de CD 106 La fuente de voltaje de CD, se denomina así, porque la fuerza eléctrica produce un movimiento de electrones en un solo sentido. Debido a esta característica, la fuerza eléctrica tiene un polo positivo en un terminal de la fuente y un polo negativo en el otro terminal. El sentido de la corriente en este tipo de fuentes siempre será de menos a más. El símbolo que representa a una fuente de voltaje de CD es: Si se gráfica la señal de voltaje con respecto al tiempo, se obtiene una línea horizontal al eje t (tiempo). Una buena fuente de voltaje de CD es aquella que mantiene el nivel de voltaje dentro de una tolerancia aceptable, así como ciertas ondulaciones de voltaje que se generan específicamente en las fuentes electrónicas de CD, ya que las baterías, por su naturaleza, no las producen. Figura 10: Gráfica de voltaje-tiempo de una fuente ideal o de naturaleza química. Figura 11: Gráfica de Voltaje-Tiempo de una Fuente Real Electrónica. El efecto de la ondulación, se genera porque el voltaje de la fuente CD es obtenido de una de CA, convirtiendo el voltaje por medio de dispositivos eléctricos y electrónicos a voltaje de CD, haciendo imposible eliminar algunas variaciones de voltaje de CA. La fuente de voltaje de CD se especifica, tanto por su voltaje, como por la corriente que puede suministrar. 107 Fuente de Voltaje de CA Se denomina de esta manera, porque la fuerza eléctrica que impulsa a los electrones cambia de polaridad en forma alternada, de manera que en un instante de tiempo, los extremos de la fuente tendrán una polaridad y un instante después, la polaridad en los extremos se invertirá. Este fenómeno se repite indefinidamente, de manera que, si la fuente esta energizando a un equipo, la corriente que fluye por el equipo cambia de sentido en forma alternada, pero siempre el sentido de la corriente será, del terminal que tenga en ese instante la polaridad negativa al otro terminal que por supuesto tiene polaridad positiva. Debido a esto, las fuentes varían su amplitud de voltaje con respecto al tiempo y también a la forma de generación que tengan, siendo las más usuales: la forma de onda senoidal y la onda cuadrada. Las fuentes de CA de tipo senoidal, son denominadas así, porque las variaciones del voltaje con respecto al tiempo, esta representan por la gráfica de la función seno. Este tipo de fuente es la que proporcionan las empresas de energía para el suministro de luz eléctrica. Para las fuentes de este tipo, la unidad de medida de voltaje el llamado voltaje eficaz o R.M.S. porque es el voltaje efectivo de la señal y se referencia como e(rms). Para las fuentes de CA de onda cuadrada el concepto de voltaje eficaz se refiere al valor máximo. El símbolo para una fuente de CA es un círculo y dentro de él se dibuja que tipo de forma de voltaje tiene: Las fuentes de voltaje de CA, además del voltaje también se especifican la corriente y la frecuencia que tiene la señal de voltaje. Conexión de una Fuente de Energía a un Equipo. Cuando una fuente de energía se conecta a un equipo, debe cumplir con: a) El voltaje que requiere el equipo sea el mismo que el que proporciona la fuente. 108 b) La corriente que requiera el equipo la pueda suministrar la fuente, pues de lo contrario la fuente se dañará. 6.2.4 Frecuencia (F) Es el número de ciclos que hay por unidad de tiempo. La frecuencia se denota por la letra f y su unidad de medida es el hz, donde un hz, es un ciclo con duración de un segundo. Además del hz, se tienen múltiplos para mediciones de f. 1hz=1ciclo/s 1kz=1000hz 1Mz=1 000 000hz 1Ghz=1 000 000 000hz Un ciclo, es la forma o patrón de la señal que se esta repitiendo, y que por supuesto es simétrica, esto es, todos los ciclos son iguales en tamaño. A este tipo de señal se le denomina señal periódica. 6.2.5 Periodo (T) Es el tiempo que dura un ciclo. Para denotar esta variable se utiliza la letra T, y la unidad de medida es el segundo, teniendo además submúltiplos de medida. 1s (segundo) = 1000ms (mili segundos) = 1 000 000us (micro segundos) = 1 000 000 000ns (nano segundos) El periodo y la frecuencia son recíprocos uno de otro, es decir, a mayor frecuencia menor periodo y viceversa, de manera que la fórmula que los relaciona es: f=1/T T= 1 / f De manera la equivalencia de unidades de medida es: T s ms us ns f hz khz Mhz Ghz Ejemplo: Dada una señal de voltaje de 60hz de frecuencia, el período será: 109 T = 1/f = 1/60hz = 0.0166s = 16.6ms La gráfica de una señal de voltaje en forma senoidal con respecto al tiempo es mostrada en la figura 12, también valores característicos como valor e(rms), voltaje máximo o pico (ep ó emax), que puede se el máximo positivo o máximo negativo, y además el voltaje de pico a pico (epp). Las relaciones matemáticas de estos voltajes se proporcionan debajo de la gráfica, pero normalmente el valor que se expresa para este tipo de fuente es el voltaje e(rms). Figura 12: Gráfica una señal de voltaje en forma senoidal con respecto al tiempo La figura 13, muestra la señal de voltaje de CD de forma cuadrada y que puede ser la forma de la señal de reloj de una PC. Figura 13: Gráfica de una señal de voltaje de CD de forma cuadrada Este tipo de señales pueden ser vistas y cuantificadas por medio de quipos de medida, como los son voltímetros o multímetros, donde muestra los valores expresados en números y el osciloscopio donde se ven las distintas formas que tienen las señales y se puede obtener su periodo y frecuencia. 110 Figura 14 6.2.6 Semiconductores Un semiconductor es un elemento que se comporta como conductor o como aislante dependiendo del campo eléctrico en el que se encuentre. Los elementos químicos semiconductores de la tabla periódica se indican en la tabla siguiente. Elemento Grupo Electrones en última capa Cd II A 2 e- Al, Ga, B, III A In 3 e- Si, Ge IV A 4 e- P, As, Sb VA 5 e- Se, Te, (S) VI A 6 e- la El elemento semiconductor más usado es el silicio, aunque idéntico comportamiento presentan las combinaciones de elementos de los grupos II y III con los de los grupos VI y V respectivamente (AsGa, PIn, AsGaAl, TeCd, SeCd y SCd). Desde hace algún tiempo se ha comenzado a emplear también el azufre. La característica común de todos ellos es que son tetravalentes, teniendo el silicio una configuración electrónica s²p². Bandas de energía Supongamos una red cristalina formada por átomos de silicio (o cualquier mezcla de las mencionadas). Cuando los átomos están aislados, el orbital s (2 estados con dos electrones) y el orbital p (6 estados con 2 electrones y cuatro vacantes) tendrán una cierta energía Es y Ep respectivamente (punto A). A medida que disminuye la distancia interatómica comienza a observarse la interacción mutua entre los átomos, hasta que ambos orbítales llegan a formar, por la distorsión creada, un sistema electrónico único. En este momento tenemos 8 orbítales híbridos sp³ con cuatro electrones y cuatro vacantes (punto B). Si se continúa disminuyendo la distancia interatómica hasta la configuración del cristal, 111 comienzan a interferir los electrones de las capas internas de los átomos, formándose bandas de energía (punto C). Las tres bandas de valores que se pueden distinguir son: 1. Banda de Valencia. 4 estados, con 4 electrones. 2. Banda Prohibida. No puede haber electrones con esos valores de energía en el cristal. 3. Banda de Conducción. 4 estados, sin electrones. Conductividad eléctrica del cristal Para que la conducción de la electricidad sea posible es necesario que haya electrones en la capa de conducción, así podemos considerar tres situaciones: • Los metales, en los que ambas bandas de energía se superponen, son conductores. • Los aislantes, en los que la diferencia existente entre las bandas de energía, del orden de 6 eV impide, en condiciones normales el salto de los electrones. • Los semiconductores, en los que el salto de energía es pequeño, del orden de 1 eV, por lo que suministrando energía pueden conducir la electricidad; pero además, su conductividad puede regularse, puesto que bastará disminuir la energía aportada para que sea menor el número de electrones que salte a la banda de conducción; cosa que no puede hacerse con los metales, cuya conductividad es constante, o más propiamente, poco variable con la temperatura. Tipos de semiconductores Semiconductores intrínsecos Un cristal de silicio forma una estructura tetraédrica similar a la del carbono mediante enlaces covalentes entre sus átomos, en la figura representados en el plano por simplicidad. Cuando el cristal se encuentra a temperatura ambiente, algunos electrones pueden, absorbiendo la energía necesaria, saltar a la banda de conducción, dejando el correspondiente hueco en la banda de valencia (1). Las energías requeridas, a temperatura ambiente son de 1,1 y 0,72 eV para el silicio y el germanio respectivamente. Obviamente el proceso inverso también se produce, de modo que los electrones pueden caer desde el estado energético correspondiente a la banda de conducción, a un hueco en la banda de valencia liberando energía. A este fenómeno, se le denomina recombinación. Sucede que, a una determinada temperatura, las velocidades de creación de pares e-h, y de recombinación se igualan, de modo que la concentración global de electrones y huecos permanece 112 invariable. Siendo n la concentración de electrones (cargas negativas) y p la concentración de huecos (cargas positivas), se cumple que: ni = n = p Siendo ni la concentración intrínseca del semiconductor, función exclusiva de la temperatura. Si se somete el cristal a una diferencia de tensión, se producen dos corrientes eléctricas. Por un lado la debida al movimiento de los electrones libres de la banda de conducción, y por otro, la debida al desplazamiento de los electrones en la banda de valencia, que tenderán a saltar a los huecos próximos (2), originando una corriente de huecos en la dirección contraria al campo eléctrico cuya velocidad y magnitud es muy inferior a la de la banda de conducción. Semiconductores extrínsecos Si a un semiconductor intrínseco, como el anterior, se le añade un pequeño porcentaje de impurezas, es decir, elementos trivalentes o pentavalentes, el semiconductor se denomina extrínseco, y se dice que está dopado. Evidentemente, las impurezas deberán formar parte de la estructura cristalina sustituyendo al correspondiente átomo de silicio. Semiconductor extrínseco tipo n Es el que se ha dopado con elementos pentavalentes (As, P o Sb). Al tener éstos elementos 5 electrones en la última capa, resultará que al formarse, como antes, la estructura cristalina, el quinto electrón no estará ligado en ningún enlace covalente, encontrándose, aún sin estar libre, en un nivel energético superior a los cuatro restantes. Si como antes, consideramos el efecto de la temperatura, observaremos que ahora, además de la formación de pares e-h, se liberarán también los electrones no enlazados, ya que la energía necesaria para liberar el electrón excedente es del orden de la centésima parte de la correspondiente a los electrones de los enlaces covalentes (en torno a 0,01 eV). Así, en el semiconductor aparecerá una mayor cantidad de electrones que de huecos; por ello se dice que los electrones son los portadores mayoritarios de la energía eléctrica y puesto que este excedente de electrones procede de las impurezas pentavalentes, a éstas se las llama donadoras. Aún siendo mayor n que p, la ley de masas se sigue cumpliendo, dado que aunque aparentemente sólo se aumente el número de electrones libres, al hacerlo, se incrementa la probabilidad de recombinación, lo que resulta en un disminución del número de huecos p, es decir: n > ni = pi > p, tal que: n.p = ni² Por lo que respecta a la conductividad del material, ésta aumenta enormemente, así, por ejemplo, 113 introduciendo sólo un átomo donador por cada 1000 átomos de silicio, la conductividad es 24100 veces mayor que la del silicio puro. Semiconductor extrínseco tipo p Es el que se ha dopado con elementos trivalentes (Al, B, Ga o In). En este caso, las impurezas aportan una vacante, por lo que se las denomina receptoras de electrones. Ahora bien, el espacio vacante no es un hueco como el formado antes con el salto de un electrón, si no que tiene un nivel energético ligeramente superior al de la banda de valencia (del orden de 0,01 eV). En este caso, los electrones saltarán a las vacantes con facilidad dejando huecos en la banda de valencia en mayor número que electrones en la banda de conducción, de modo que ahora son los huecos los portadores mayoritarios. Al igual que en el caso anterior, el incremento del número de huecos se ve compensado en cierta medida por la mayor probabilidad de recombinación, de modo que la ley de masas también se cumple en este caso: p > pi = ni > n, tal que: n·p = ni² 114 CAPITULO 7 ELEMENTOS 7.1 ELEMENTOS BÁSICOS 7.1.1 Resistencias83 Se denomina resistencia eléctrica, R, de una sustancia a la oposición que encuentra la corriente eléctrica para recorrerla. Su valor se mide en ohmios y se designa con la letra griega omega mayúscula (Ω). Esta definición es válida para la corriente continua y para la corriente alterna cuando se trate de elementos resistivos puros, esto es, sin componente inductiva ni capacitiva. De existir estos componentes reactivos, la oposición presentada a la circulación de corriente recibe el nombre de impedancia. Según sea la magnitud de esta oposición, las sustancias se clasifican en conductoras, no conductoras o aislantes y semiconductoras. Imagen de un resistor, elemento destinado a introducir determinada resistencia eléctrica en un circuito. Comportamientos ideal y real Una resistencia ideal es un elemento pasivo que disipa energía en forma de calor. Su ecuación de definición es: donde u(t) es la diferencia de potencial aplicada a sus bornes e i(t) la intensidad que circula. En general, una resistencia real podrá tener diferente comportamiento en función del tipo de corriente que circule por ella. 83 www.wkipedia.com 115 Comportamiento en corriente continua Una resistencia real en corriente continua (c.c.) no se comporta de la misma forma que si fuera ideal, esto es, transformando la energía eléctrica en calor. Su ecuación pasa a ser: Que es la conocida ley de Ohm para c.c. Comportamiento en corriente alterna A bajas frecuencias, una resistencia real en corriente alterna (c. a.) se comportará de la misma forma que lo haría una ideal. En los circuitos de c. a. la resistencia se considera una magnitud compleja sin parte imaginaria o, lo que es lo mismo con argumento nulo; cuya representación binómico y polar será: En altas frecuencias, aparecen en las resistencias reales efectos inductivos, que son más importantes conforme aumenta la frecuencia. En estos casos, para analizar los circuitos, la resistencia real se sustituye por una impedancia inductiva, esto es, una resistencia en serie con una bobina, ambos como elementos ideales. En los conductores, además, aparecen otros efectos entre los que cabe destacar el efecto pelicular. Resistencia de un conductor84 Cuando fluye una carga por un material dado, experimente una oposición al flujo. Esa oposición se llama resistencia del material. La resistencia depende de la longitud, el área de corte transversal, el tipo de material y la temperatura opcional. A una temperatura constante, la resistencia del material es: R= ρl A Donde R es la resistencia, ρ es la resistividad del material en ohms – metro (Ω.m) , l es la longitud en metros o centímetros y A es el área de corte transversal 84 Electrónica Práctica 1, McGRAW-HILL 116 en metros cuadrados. La resistencia de un material es directamente proporcional a su longitud e inversamente proporcional a su área de corte transversal. 7.1.2 Diodos85 Un diodo es un dispositivo que permite el paso de la corriente eléctrica en una única dirección. De forma simplificada, la curva característica de un diodo (I-V) consta de dos regiones, por debajo de cierta diferencia de potencial, se comporta como un circuito abierto (no conduce), y por encima de ella como un circuito cerrado con muy pequeña resistencia eléctrica. Debido a este comportamiento, se les suele denominar rectificadores, ya que son dispositivos capaces de convertir una corriente alterna en corriente continua. Tipos de diodos Diodo pn ó Unión pn Los diodos pn son uniones de dos materiales semiconductores extrínsecos tipos p y n, por lo que también reciben la denominación de unión pn. Hay que destacar que ninguno de los dos cristales por separado tiene carga eléctrica, ya que en cada cristal, el número de electrones y protones es el mismo, de lo que podemos decir que los dos cristales, tanto el p como el n, son neutros. (Su carga neta es 0). Al unir ambos cristales, se manifiesta una difusión de electrones del cristal n al p (Je). Al establecerse estas corrientes aparecen cargas fijas en una zona a ambos lados de la unión, zona que recibe diferentes denominaciones como zona de carga espacial, de agotamiento, de deflexión, de vaciado, etc. A medida que progresa el proceso de difusión, la zona de carga espacial va incrementando su anchura profundizando en los cristales a ambos lados de la unión. Sin embargo, la acumulación de iones positivos en la zona n y de iones negativos en la zona p, crea un campo eléctrico (E) que actuará sobre los 85 www.wikipedia.com 117 electrones libres de la zona n con una determinada fuerza de desplazamiento, que se opondrá a la corriente de electrones y terminará deteniéndolos. Este campo eléctrico es equivalente a decir que aparece una diferencia de tensión entre las zonas p y n. Esta diferencia de potencial (V0) es de 0,7 V en el caso del silicio y 0,3 V si los cristales son de germanio. La anchura de la zona de carga espacial una vez alcanzado el equilibrio, suele ser del orden de 0,5 micras pero cuando uno de los cristales está mucho más dopado que el otro, la zona de carga espacial es mucho mayor. Formación de la zona de carga espacial Al dispositivo así obtenido se le denomina diodo, que en un caso como el descrito, tal que no se encuentra sometido a una diferencia de potencial externa, se dice que no está polarizado. Al extremo p, se le denomina ánodo, representándose por la letra A, mientras que la zona n, el cátodo, se representa por la letra C (o K). A (p) C ó K (n) Representación simbólica del diodo pn 118 Polarización Directa Cuando se somete al diodo a una diferencia de tensión externa, se dice que el diodo está polarizado, pudiendo ser la polarización directa o inversa. En este caso, la batería disminuye la barrera de potencial de la zona de carga espacial, permitiendo el paso de la corriente de electrones a través de la unión; es decir, el diodo polarizado directamente conduce la electricidad. Para que un diodo esté polarizado directamente, tenemos que conectar el polo positivo de la batería al ánodo del diodo y el polo negativo al cátodo. En estas condiciones podemos observar que: - El polo negativo de la batería repele los electrones libres del cristal n, con lo que estos electrones se dirigen hacia la unión p-n. - El polo positivo de la batería atrae a los electrones de valencia del cristal p, esto es equivalente a decir que empuja a los huecos hacia la unión p-n. - Cuando la diferencia de potencial entre los bornes de la batería es mayor que la diferencia de potencial en la zona de carga espacial, los electrones libres del cristal n, adquieren la energía suficiente para saltar a los huecos del cristal p, los cuales previamente se han desplazado hacia la unión p-n. - Una vez que un electrón libre de la zona n salta a la zona p atravesando la zona de carga espacial, cae en uno de los múltiples huecos de la zona p convirtiéndose en electrón de valencia. Una vez ocurrido esto el electrón es atraído por el polo positivo de la batería y se desplaza de átomo en átomo hasta llegar al final del cristal p, desde el cual se introduce en el hilo conductor y llega hasta la batería. - De este modo, con la batería cediendo electrones libres a la zona n y atrayendo electrones de valencia de la zona p, aparece a través del diodo una corriente eléctrica constante hasta el final. 119 Polarización directa Curva característica del diodo Tensión umbral, de codo o de partida (Vγ ).La tensión umbral (también llamada barrera de potencial) de polarización directa coincide en valor con la tensión de la zona de carga espacial del diodo no polarizado. Al polarizar directamente el diodo, la barrera de potencial inicial se va reduciendo, incrementando la corriente ligeramente, alrededor del 1% de la nominal. Sin embargo, cuando la tensión externa supera la tensión umbral, la barrera de potencial desaparece, de forma que para pequeños incrementos de tensión se producen grandes variaciones de la intensidad. Corriente máxima (Imax ).Es la intensidad de corriente máxima que puede conducir el diodo sin fundirse por el efecto Joule. Dado que es función de la cantidad de calor que puede disipar el diodo, depende sobre todo del diseño del mismo. Corriente inversa de saturación (Is ).Es la pequeña corriente que se establece al polarizar inversamente el diodo por la formación de pares electrón-hueco debido a la temperatura, admitiéndose que se duplica por cada incremento de 10º en la temperatura. Corriente superficial de fugas Es la pequeña corriente que circula por la superficie del diodo (ver polarización inversa), esta corriente es función de la tensión aplicada al diodo, con lo que al aumentar la tensión, aumenta la corriente superficial de fugas. Tensión de ruptura (Vr ). Es la tensión inversa máxima que el diodo puede soportar antes de darse el efecto avalancha. Teóricamente, al polarizar inversamente el diodo, este conducirá la corriente inversa de saturación; en la realidad, a partir de un determinado valor de la tensión, en el diodo normal o de unión abrupta la ruptura se debe al efecto avalancha; no obstante hay otro tipo de diodos, como los Zener, en los que la ruptura puede deberse a dos efectos: Efecto avalancha (diodos poco dopados). En polarización inversa se generan pares electrón-hueco que provocan la corriente inversa de saturación; si la tensión inversa es elevada los electrones se aceleran incrementando su energía cinética de forma que al chocar con electrones de valencia pueden provocar su salto a la banda de conducción. Estos electrones liberados, a su vez, se aceleran por efecto de la tensión, chocando con más electrones de valencia y liberándolos a su vez. El 120 resultado es una avalancha de electrones que provoca una corriente grande. Este fenómeno se produce para valores de la tensión superiores a 6 V. Efecto Zener (diodos muy dopados). Cuanto más dopado está el material, menor es la anchura de la zona de carga. Puesto que el campo eléctrico E puede expresarse como cociente de la tensión V entre la distancia d; cuando el diodo esté muy dopado, y por tanto d sea pequeño, el campo eléctrico será grande, del orden de 3·105 V/cm. En estas condiciones, el propio campo puede ser capaz de arrancar electrones de valencia incrementándose la corriente. Este efecto se produce para tensiones de 4 V o menores. Para tensiones inversas entre 4 y 6 V la ruptura de estos diodos especiales, como los Zener, se puede producir por ambos efectos. Otros diodos - Diodo Tener Un diodo Zener, es un diodo de silicio que se ha construido para que funcione en las zonas de rupturas. Llamados a veces diodos de avalancha o de ruptura, el diodo zener es la parte esencial de los reguladores de tensión casi constantes con independencia de que se presenten grandes variaciones de la tensión de red, de la resistencia de carga y temperatura. Fotografía de un diodo Tener 121 Representación esquemática del diodo Zener Resistencia Zener Un diodo zener, como cualquier diodo, tiene cierta resistencia interna en sus zonas P y N; al circular una corriente a través de éste se produce una pequeña caída de tensión de ruptura. En otras palabras: si un diodo zener está funcionando en la zona zener, un aumento en la corriente producirá un ligero aumento en la tensión. El incremento es muy pequeño, generalmente de una décima de voltio. Estabilizador Zener Los diodos Zener mantienen la tensión entre sus terminales prácticamente constante, cuando están polarizados inversamente, en un amplio rango de intensidades y temperaturas, por ello, este tipo de diodos se emplean en circuitos estabilizadores o reguladores de la tensión tal y como el mostrado en la figura. Eligiendo la resistencia R y las características del diodo, se puede lograr que la tensión en la carga (RL) permanezca prácticamente constante dentro del rango de variación de la tensión de entrada VS. Estabilizador Zener Para elegir la resistencia limitadora R adecuada hay que calcular primero cual puede ser su valor máximo y mínimo, después elegiremos una resistencia R que se adecue a nuestros cálculos. 122 Donde: 1. 2. 3. 4. 5. 6. Rmin es el valor mínimo de la resistencia limitadora. Rmax es el valor máximo de la resistencia limitadora. Vsmax es el valor máximo de la tensión de entrada. Vsmin es el valor mínimo de la tensión de entrada. Vz es la tensión Zener. ILmin es la mínima intensidad que puede circular por la carga, en ocasiones, si la carga es desconectable, ILmin suele tomar el valor 0. 7. ILmax es la máxima intensidad que soporta la carga. 8. Izmax es la máxima intensidad que soporta el diodo Zener. 9. Izmin es la mínima intensidad que necesita el diodo zener para mantenerse dentro de su zona zener o conducción en inversa. - Diodo avalancha Un diodo avalancha, es un diodo semiconductor diseñado especialmente para trabajar en inversa. En estos diodos, poco dopados, cuando la tensión en polarización inversa alcanza el valor de la tensión de ruptura, los electrones que han saltado a la banda de conducción por efecto de la temperatura se aceleran debido al campo eléctrico incrementando su energía cinética, de forma que al colisionar con electrones de valencia los liberan; éstos a su vez, se aceleran y colisionan con otros electrones de valencia liberándolos también, produciéndose una avalancha de electrones cuyo efecto es incrementar la corriente conducida por el diodo sin apenas incremento de la tensión. La aplicación típica de estos diodos es la protección de circuitos electrónicos contra sobre tensiones. El diodo se conecta en inversa a tierra, de modo que mientras la tensión se mantenga por debajo de la tensión de ruptura sólo será atravesado por la corriente inversa de saturación, muy pequeña, por lo que la interferencia con el resto del circuito será mínima; a efectos prácticos, es como si el diodo no existiera. Al incrementarse la tensión del circuito por encima del valor de ruptura, el diodo comienza a conducir desviando el exceso de corriente a tierra evitando daños en los componentes del circuito. El diodo Zener está también diseñado para trabajar en inversa, aunque el mecanismo de ruptura es diferente al aquí expuesto. 123 - Diodo Varicap El Diodo de capacidad variable o Varicap es un tipo de diodo que basa su funcionamiento en el fenómeno que hace que la anchura de la barrera de potencial en una unión PN varié en función de la tensión inversa aplicada entre sus extremos. Al aumentar dicha tensión, aumenta la anchura de esa barrera, disminuyendo así la capacidad del diodo. De este modo se obtiene un condensador variable controlado por tensión. Los valores de capacidad obtenidos van desde 1 a 500 pF. La tensión inversa mínima tiene que ser de 1 V. La aplicación de estos diodos se encuentra, sobre todo, en la sintonía de TV, modulación de frecuencia en transmisiones de FM y radio. Símbolo del diodo varicap - Foto diodo Un fotodiodo es un semiconductor construido con una unión PN, sensible a la incidencia de la luz visible o infrarroja. Para que su funcionamiento sea correcto se polariza inversamente, con lo que se producirá una cierta circulación de corriente cuando sea excitado por la luz. Debido a su construcción, los fotodiodos se comportan como células fotovoltaicas, es decir, en ausencia de luz exterior, generan una tensión muy pequeña con el positivo en el ánodo y el negativo en el cátodo. Esta corriente presente en ausencia de luz recibe el nombre de corriente de oscuridad. Símbolo del fotodiodo 124 Fotodiodo Composición El material empleado en la composición de un fotodiodo es un factor crítico para definir sus propiedades. Suelen estar compuestos de silicio, sensible a la luz visible (longitud de onda de hasta 1µm); germanio para luz infrarroja (longitud de onda hasta aprox. 1,8 µm ); o de cualquier otro material semiconductor. Material Longitud de onda (nm) Silicio 190–1100 Germanio 800–1700 Indio galio arsénico (InGaAs) 800–2600 sulfuro de plomo <1000-3500 También es posible la fabricación de fotodiodos para su uso en el campo de los infrarrojos medios (longitud de onda entre 5 y 20 µm), pero estos requieren refrigeración por nitrógeno líquido. Antiguamente se fabricaban exposímetros con un fotodiodo de selenio de una superficie amplia. 125 - Diodo Schottky El diodo Schottky llamado así en honor del físico alemán Walter H. Schottky, también denominado diodo pnpn, es un dispositivo semiconductor que proporciona conmutaciones muy rápidas entre los estados de conducción directa e inversa (menos de 1ns en dispositivos pequeños de 5 mm de diámetro) y muy bajas tensiones umbral (también conocidas como tensiones de codo, aunque en inglés se refieren a ella como "knee", o sea, de rodilla). La tensión de codo es la diferencia de potencial mínima necesaria para que el diodo actúe como conductor en lugar de circuito abierto; esto, claro, dejando de lado la región Zener, que es cuando más bien existe una diferencia de potencial lo suficientemente negativa para que -a pesar de estar polarizado en contra del flujo de corriente- éste opere de igual forma como lo haría regularmente. Símbolo del Diodo Schottky A frecuencias bajas un diodo normal puede conmutar fácilmente cuando la polarización cambia de directa a inversa, pero a medida que aumenta la frecuencia el tiempo de conmutación puede llegar a ser muy alto, poniendo en peligro el dispositivo. El diodo Schottky está constituido por una unión metal-semiconductor (barrera Schottky), en lugar de la unión convencional semiconductor-semiconductor utilizada por los diodos normales. Así se dice que el diodo Schottky es un dispositivo semiconductor "portador mayoritario". Esto significa que, si el cuerpo semiconductor está dopado con impurezas tipo N, solamente los portadores tipo N (electrones móviles) jugaran un papel significativo en la operación del diodo y no se realizará la recombinación aleatoria y lenta de portadores tipo N y P que tiene lugar en los diodos rectificadores normales, con lo que la operación del dispositivo será mucho más rápida. La alta velocidad de conmutación permite rectificar señales de muy altas frecuencias y eliminar excesos de corriente en circuitos de alta intensidad. A diferencia de los diodos convencionales de silicio, que tienen una tensión umbral —valor de la tensión en directa a partir de la cual el diodo conduce— de 0,6 V, los diodos Schottky tienen una tensión umbral de aproximadamente 0,2 V a 0,4 V empleándose, por ejemplo, como protección de descarga de células solares con baterías de plomo ácido. 126 La limitación más evidente del diodo de Schottky es la dificultad de conseguir resistencias inversas relativamente elevadas cuando se trabaja con altos voltajes inversos pero el diodo Schottky encuentra una gran variedad de aplicaciones en circuitos de alta velocidad para computadoras donde se necesiten grandes velocidades de conmutación y mediante su poca caída de voltaje en directo permite poco gasto de energía, otra utilización del diodo Schottky es en variadores de alta gama para que la corriente que vuelve desde el motor al variador no pase por el transistor del freno y este no pierda sus facultades. El diodo Schottky tiene varios tipos del mismo. Por ejemplo los tipos ALS y AS permiten que los tiempos de conmutación entre los transistores sean mucho menores puesto que son más superficiales y de menor tamaño por lo que se da una mejora en la relación velocidad/potencia. El tipo ALS permite mayor potencia y menor velocidad que la LS, mientras que las AL presentan el doble de velocidad que las Schottly TTL con la misma potencia. - Diodo túnel El Diodo túnel es un diodo semiconductor que tiene una unión pn, en la cual se produce el efecto túnel que da origen a una conductancia diferencial negativa en un cierto intervalo de la característica corriente-tensión. Símbolo del Diodo túnel La presencia del tramo de resistencia negativa permite su utilización como componente activo (amplificador/oscilador). También se conocen como diodos Esaki, en honor del hombre que descubrió que una fuerte contaminación con impurezas podía causar un efecto de tunelización de los portadores de carga a lo largo de la zona de agotamiento en la unión. Una característica importante del diodo túnel es su resistencia negativa en un determinado intervalo de voltajes de polarización directa. Cuando la resistencia es negativa, la corriente disminuye al aumentar el voltaje. En consecuencia, el diodo túnel puede funcionar como amplificador o como oscilador. Esencialmente, este diodo es un dispositivo de baja potencia para aplicaciones que involucran microondas y que están relativamente libres de los efectos de la radiación. 127 - Diodo láser Un diodo láser es dispositivo semiconductor similar a los diodos LED pero que bajo las condiciones adecuadas emite luz láser. A veces se los denomina diodos láser de inyección, o por sus siglas inglesas LD o ILD. Cuando un diodo convencional o LED se polariza en directa, los huecos de la zona p se mueven hacia la zona n y los electrones de la zona n hacia la zona p; ambos desplazamientos de cargas constituyen la corriente que circula por el diodo. Si los electrones y huecos están en la misma región, pueden recombinarse cayendo el electrón al hueco y emitiendo un fotón con la energía correspondiente a la banda prohibida (véase semiconductor). Esta emisión espontánea se produce en todos los diodos, pero sólo es visible en los diodos LED que tienen una disposición constructiva especial con el propósito de evitar que la radiación sea reabsorbida por el material circundante, y una energía de la banda prohibida coincidente con el espectro visible; en el resto de diodos, la energía se disipa en forma de radiación infrarroja. En condiciones apropiadas, el electrón y el hueco pueden coexistir un breve tiempo, del orden de milisegundos, antes de recombinarse, de forma que si un fotón con la energía apropiada pasa por casualidad por allí durante ese periodo, se producirá la emisión estimulada (véase láser), es decir, al producirse la recombinación el fotón emitido tendrá igual frecuencia, polarización y fase que el primer fotón. En los diodos láser, el cristal semiconductor tiene la forma de una lámina delgada lográndose así una unión p-n de grandes dimensiones, con las caras exteriores perfectamente paralelas. Los fotones emitidos en la dirección adecuada se reflejarán repetidamente en dichas caras estimulando a su vez la emisión de más fotones, hasta que el diodo comienza a emitir luz láser, que al ser coherente debido a las reflexiones posee una gran pureza espectral. 7.1.3 Condensadores 86 Un condensador es un dispositivo capaz de almacenar carga y energía. Está constituido por dos conductores aislados uno del otro y que reciben el nombre de placas. Un condensador típico, como el condensador de placas paralelas, es un dispositivo que se constituye de dos placas conductoras de área A separadas entre si por una distancia d (Ver Figura No 31). Si las placas de este condensador las conectamos a un dispositivo de carga, como puede ser una pila o una fuente, se produce una transferencia de carga de una de 86 TRIPLER, Paúl, Física, REVERTE, Barcelona, 1996 128 las placas a otra, pero esto no dura siempre, la transferencia de carga termina cuando la diferencia de potencial entre las placas, debida a la carga en las mismas que son iguales y opuestas, sea igual a la suministrada por la pila. La cantidad de carga que pueda almacenar el condensador depende de la geometría del mismo, o sea, depende del tamaño de las placas del condensador y la distancia a la que estén dichas placas, y es directamente proporcional a la diferencia de potencial aplicada. La constante de proporcionalidad es la Capacidad: Q = CV Donde: Q = la carga almacenada. C = la capacidad del condensador. V = Diferencia de potencial (Voltaje suministrado por la fuente) Figura 31: Condensador construido por dos placas conductoras separadas por una pequeña distancia. Cuando los conductores están conectados a los terminales de una batería, ésta transfiere carga desde una de las placas a la otra hasta que la diferencia de potencial entre ambas se hace igual a la diferencia de potencial entre los extremos de la batería. La cantidad de carga transferida es proporcional a la diferencia de potencial. Como ya hemos citado la capacidad depende de la disposición geométrica de las placas del condensador. Esta capacidad tiene una unidad, la cual en el sistema internacional es el Faradio, que se define como: 1 faradio = 1 culombio/voltio 129 Como el Faradio es una unidad relativamente grande se utilizan unidades más pequeñas como: microfaradio (1uF = 10e-6) o el pico faradio(1pF = 10e-9). Figura 32: Diversos tipos de condensadores Cálculo de la Capacitancia El cálculo de la capacidad no es difícil en principio, ya que partiendo de la carga que se almacena en cada placa, siendo esta en una placa +Q y en la otra -Q, y la diferencia de potencial V que hay entre ellas. Integrando el campo desde un conductor al otro se determina entonces la diferencia de potencial V entre ambos. Como la diferencia de potencial es proporcional a la carga, la capacidad C=Q/V no depende de Q ni de V. Podemos distinguir tres casos para los que se puede calcular la diferencia de potencial, de los cuales sus geométricas son bastantes sencillas. Estos casos son: el condensador de placas paralelas o el condensador cilíndrico. Para el cálculo de la diferencia de potencial se puede hallar, calculando primero el campo eléctrico por la Ley de Gauss o la de Coulomb. - Capacidad de un condensador de placas paralelas, Formado por dos placas de la misma superficie A separadas por una distancia s, pequeña comparada con la longitud y anchura de las placas. Se dispone de una carga +Q en una placa y –Q en la otra. Como las placas están muy próximas, el campo en cualquier punto entre las placas (excluyendo los puntos próximos a los bordes) es aproximadamente igual al campo debido a dos planos de carga infinitos, iguales y opuestos. Cada placa contribuye con un campo uniforme de magnitud σ / 2ε 0 , resultando así un campo total E = σ / ε 0 , siendo σ = Q / A la carga por unidad de área en cada una de las placas. Como el campo que existe entre las placas de este condensador es uniforme (figura 33), la diferencia de potencial entre las placas es igual al campo multiplicado por la separación de las placas, s: V = Es = σ Qs s= ε0 ε0 A 130 Siendo ε 0 = 8.85 x10 −12 F / m = 8.85 pF / m Figura 33: Las líneas del campo eléctrico entre las placas de un condensador plano están igualmente espaciadas, lo que indica que el campo es uniforme en dicha zona. La capacidad del condensador de placas papeleas es, por tanto: C= Q ε0 A = V s Capacidad del Condensador cilíndrico Un condensador cilíndrico consta de un pequeño cilindro o alambre conductor, de radio a y una corteza cilíndrica mayor de radio b concéntrica con la anterior. Un cable coaxial, como el utilizado en la televisión por cable puede considerarse como un condensador cilíndrico. La capacidad por unidad de longitud de un cable coaxial es importante en la determinación de las características de transmisión de un cable. Supongamos que la longitud del condensador es L y que posee una carga +Q en el conductor interior y una carga –Q en el exterior. El campo eléctrico exterior de un alambre o cilindro alargado de carga Q es: Er = 1 λ 2πε 0 r = Q 2πε 0 Lr 131 Figura 34: Condensador cilíndrico Figura 35: Un cable coaxial es un condensador cilíndrico que posee un alambre sólido como conductor interno y un blindaje de alambre trenzado como conductor externo. En este caso se ha desprendido la cubierta exterior de caucho para que puedan verse los conductores y el aislante de plástico blanco que los separa. En donde λ = Q / L es la densidad de carga lineal. El campo debido a la carga –Q sobre la corteza cilíndrica externa es cero dentro de la corteza. Sea Va el potencial del conductor interno y Vb el del conductor externo. consiguiente: b Vb − Va ) − ∫ E r dr = − a Q 2πε 0 b L∫ a Por dr Q b =− ln r 2πε 0 L a Naturalmente, el potencial es mayor en el conductor interno, el cual transporta la carga positiva, pues las líneas del campo eléctrico están dirigidas desde este conductor hacia el exterior. La magnitud de esta diferencia de potencial es: V = V a − Vb = Q ln(b / a ) 2πε 0 L 132 Y la capacidad es: C= 2πε 0 L Q = V ln(b / a ) Como era de esperar la capacidad del condensador es proporcional a la longitud del cilindro, o sea, cuanto más grande es la longitud, como la capacidad depende de la carga por unidad de longitud, para una diferencia de potencial determinada, mayor capacidad de almacenaje tiene el condensador. - Capacitancia de un condensador esférico 87 Un condensador esférico esta compuesto por una pequeña esfera conductora interior de radio R1, y de una corteza esférica mayor concéntrica con la anterior de radio R2, tal y como se muestra en la figura 36. La esfera interior puede estar suspendida mediante un aislador. Se hace una pequeña abertura en la corteza interior de modo que pueda colocarse una carga en la esfera interna. Si esta abertura es suficientemente pequeña tendrá un efecto despreciable sobre la simetría esférica del condensador. Para hallar la capacidad situamos una carga +Q en la esfera interna y otra -Q en la exterior y hallamos la diferencia de potencial. El campo eléctrico entre los conductores es el mismo que el debido a una carga puntual Q situada en el origen. Por Gauss se demuestra fácilmente que el campo en la corteza exterior no contribuye el campo en el interior, o sea, que para radios r < R1 y r R2 no nos hace falta conocer el campo, ya que se demuestra por Gauss que E = 0. Entonces el campo eléctrico entre los conductores es pues: E=K q r Figura 36: Condensador esférico El potencial de la esfera interior V1 es mayor que el de la esfera exterior, como lo prueba de hecho que las líneas eléctricas señalan radialmente hacia fuera desde la esfera interior hacia la esfera exterior. El valor de la diferencia de potencial es: 87 EDMINISTER, Joseph A, Electromagnetismo. McGraw Hill, México, 1994 133 R2 r R2 R2 r q R − R1 V = − ∫ E ⋅ dr = ∫ E dr = ∫ k 2 dr = kq 2 R1 R1 R1 r R1 R2 Entonces finalmente el valor de la capacidad se calcula con la siguiente fórmula: C= R1 R2 R2 = 4πε o R1 k ( R2 − R1 ) R2 − R1 Debemos tener en cuenta lo siguiente para el cálculo de la capacidad, cuando el radio de la esfera exterior tiende a infinito, la capacidad tiende a ser 4p e 0 R1. Así pues este resultado nos dice que cuando situamos la corteza exterior al infinito la capacidad es la de una esfera aislada. Para una esfera de radio R, su capacidad, definida como el cociente entre la carga y el potencial (respecto al potencial cero en el infinito), es: C = 4p e0 R La capacidad de un conductor esférico aislado es proporcional a su radio. Obsérvese que la capacidad en los tres casos vistos es proporcional a la constante e 0 y a una longitud característica del sistema. 7.1.4 Inductores Los inductores consisten en un hilo conductor enrollado en forma de bobina. Al pasar una corriente a través de la bobina, alrededor de la misma se crea un campo magnético que tiende a oponerse a los cambios bruscos de la intensidad de la corriente (véase Inducción). Al igual que un condensador, un inductor puede utilizarse para diferenciar entre señales rápida y lentamente cambiantes. Al utilizar un inductor conjuntamente con un condensador, la tensión del inductor alcanza un valor máximo a una frecuencia específica que depende de la capacitancia y de la inductancia. Este principio se emplea en los receptores de radio al seleccionar una frecuencia específica mediante un condensador variable. 88 Un inductor es un elemento pasivo de un circuito eléctrico que, debido al fenómeno de la autoinducción, almacena energía en forma de campo magnético. Un inductor está constituido usualmente por una bobina de material conductor, 88 http://es.wikipedia.org/wiki/Inductor 134 típicamente cable de cobre. Existen inductores con núcleo de aire ó con núcleo de un material ferroso, para incrementar su inductancia. Valor de la inductancia El valor de la inductancia viene determinado exclusivamente por las características de la bobina y por la permeabilidad magnética del espacio donde se encuentra. Así, para un solenoide, la inductancia, de acuerdo con las ecuaciones de Maxwell, viene determinada por: Donde µ es la permeabilidad absoluta del núcleo, N es el número de espiras, A es el área de la sección transversal del bobinado y l la longitud de las líneas de flujo. El cálculo de l es bastante complicado a no ser que la bobina sea toroidal y aún así, resulta difícil si el núcleo presenta distintas permeabilidades en función de la intensidad que circule por la misma. En este caso, la determinación de l se realiza a partir de las curvas de imantación. Energía almacenada Figura 39: Circuito con inductancia. La bobina ideal es un elemento pasivo que almacena energía eléctrica en forma de campo magnético cuando aumenta la intensidad, devolviéndola cuando la corriente disminuye. Su ecuación de definición es (figura 1): Matemáticamente se puede demostrar que la energía, , almacenada por una bobina con inductancia L que es recorrida por una corriente I, viene dada por: 135 7.1.5 Transistores89 El término transistor es la contracción de transfer resistor, es decir, de resistencia de transferencia. El Transistor es un dispositivo electrónico semiconductor que se utiliza como amplificador o conmutador electrónico. Es un componente clave en toda la electrónica moderna, donde es ampliamente utilizado formando parte de conmutadores electrónicos, puertas lógicas, memorias de ordenadores y otros dispositivos. En el caso de circuitos analógicos los transistores son utilizados como amplificadores, osciladores y generadores de ondas. Sustituto de la válvula termoiónica de tres electrodos o triodo, el transistor bipolar fue inventado en los Laboratorios Bell de EEUU en Diciembre de 1947 por John Bardeen, Walter Houser Brattain, y William Bradford Shockley, los cuales fueron galardonados con el Premio Nobel de Física en 1956. Figura 40: Diferentes encapsulados de transistores Generalidades Sus inventores, John Bardeen, William Bradford Shockley y Walter Brattain, lo llamaron así por la propiedad que tiene de cambiar la resistencia al paso de la corriente eléctrica entre el emisor y el colector. El transistor bipolar tiene tres partes, como el triodo. Una que emite portadores (emisor), otra que los recibe o recolecta (colector) y la tercera, que esta intercalada entre las dos primeras, modula el paso de dichos portadores (base). Su funcionamiento es análogo al del triodo, por lo que es aconsejable leer lo que se dice en dicho artículo. 89 http://es.wikipedia.org/wiki/Transistor 136 En los transistores bipolares, una pequeña señal eléctrica aplicada entre la base y emisor modula la corriente que circula entre emisor y colector. La señal baseemisor puede ser muy pequeña en comparación con el emisor-colector. La corriente emisor-colector es aproximadamente de la misma forma que la baseemisor pero amplificada en un factor de amplificación "Beta". El transistor se utiliza, por tanto, como amplificador. Además, como todo amplificador puede oscilar, puede usarse como oscilador y también como rectificador y como conmutador on-off. El transistor también funciona, por tanto, como un interruptor electrónico, siendo esta propiedad aplicada en la electrónica en el diseño de algunos tipos de memorias y de otros circuitos como controladores de motores de DC y de pasos. Tipos de transistor Existen distintos tipos de transistores, de los cuales la clasificación más aceptada consiste en dividirlos en transistores bipolares o BJT (bipolar junction transistor) y transistores de efecto de campo o FET (field effect transistor). La familia de los transistores de efecto de campo es a su vez bastante amplia, englobando los JFET, MOSFET, MISFET, etc. La diferencia básica entre ambos tipos de transistor radica en la forma en que se controla el flujo de corriente. En los transistores bipolares, que poseen una baja impedancia de entrada, el control se ejerce inyectando una baja corriente (corriente de base), mientras que en el caso de los transistores de efecto de campo, que poseen una alta impedancia, es mediante voltaje (tensión de puerta). Transistores bipolares (BJT - Bipolar Junction Transistor) Se puede tener por tanto transistores PNP o NPN. Tecnológicamente se desarrollaron antes que los de efecto de campo o FET. PNP NPN Figura 41: Símbolos esquemáticos para los BJT de tipo PNP y NPN. B=Base, C=Colector y E=Emisor 137 Los transistores bipolares se usan generalmente en electrónica analógica. También en algunas aplicaciones de electrónica digital como la tecnología TTL o BICMOS. Los MOSFET tienen en común con los FET su ausencia de cargas en las placas metálicas así como un solo flujo de campo. Suelen venir integrados en capas de arrays con polivalencia de 3 a 4Tg. Trabajan, mayormente, a menor rango que los BICMOS y los PIMOS. Un transistor de juntura bipolar está formado por dos junturas PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta forma quedan formadas tres regiones: Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. Base, la intermedia, muy estrecha, que separa el emisor del colector. Colector, de extensión mucho mayor. La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la juntura base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de portadores, y la mayoría pasa al colector. Transistores de efecto de campo (FET - Field-Effect Transistor) Los transistores de efecto de campo o FET más conocidos son los JFET (Junction Field Effect Transistor), MOSFET (Metal-Oxide-Semiconductor FET) y MISFET (Metal-Insulator-Semiconductor FET). P- channel N- channel Figura 42: Símbolos esquemáticos para los JFETs canal-n y canal-p. G=Puerta(Gate), D=Drenador(Drain) y S=Fuente(Source). 138 Tienen tres terminales, denominadas puerta (gate), drenador (drain) y fuente (source). La puerta es el terminal equivalente a la base del BJT. El transistor de efecto de campo se comporta como un interruptor controlado por tensión, donde el voltaje aplicado a la puerta permite hacer que fluya o no corriente entre drenador y fuente. El funcionamiento del transistor de efecto de campo es distinto al del BJT. En los MOSFET, la puerta no absorbe corriente en absoluto, frente a los BJT, donde la corriente que atraviesa la base, pese a ser pequeña en comparación con la que circula por las otras terminales, no siempre puede ser despreciada. Los MOSFET, además, presentan un comportamiento capacitivo muy acusado que hay que tener en cuenta para el análisis y diseño de circuitos. Así como los transistores bipolares se dividen en NPN y PNP, los de efecto de campo o FET son también de dos tipos: canal n y canal p, dependiendo de si la aplicación de una tensión positiva en la puerta pone al transistor en estado de conducción o no conducción, respectivamente. Los transistores de efecto de campo MOS son usados extensísimamente en electrónica digital, y son el componente fundamental de los circuitos integrados o chips digitales. Transistores y electrónica de potencia Con el desarrollo tecnológico y evolución de la electrónica, la capacidad de los dispositivos semiconductores para soportar cada vez mayores niveles de tensión y corriente ha permitido su uso en aplicaciones de potencia. Es así como actualmente los transistores son empleados en convertidores estáticos de potencia, principalmente Inversores. Pero su principal uso esta basado en la amplificación de corriente dentro de un circuito. 7.1.6 Amplificadores90 El amplificador operacional es una amplificador de alga ganancia acoplado directamente que utiliza realimentación para desarrollar las características. Figura 43: Símbolo del amplificador operacional 90 GUITIÉRREZ, Humberto, Electrónica Análoga, Fotocopiar Impresores, Bogotá 2002 139 El amplificador operaciones es ampliamente usada en el diseño de circuitos análogos porque sus características son muy cercanas a las ideales. Es capaz de amplificar, controlar o generar alguna señal sinusoidal o no sinusoidal en frecuencias desde varios mega hertz. Las características del amplificador ideal son: - Impedancia de entrada infinita. - Impedancia de salida cero - Ganancia de voltaje infinita - Tensión de offset nula - Tiempo de respuesta nulo - Variación nula de características con cambio de tensión de entrada en modo común. - Variación nula de características con cambio de tensión de alimentación. - Ancho de banda infinito - Corrimiento por efecto térmico cero (drift cero) Estructura interna Un amplificador operacional está construido internamente por transistores bipolares como en los operacionales de la serie LM o también se construyen combinando transistores bipolares y JFET (BI-FET) como en los operacionales LF. Un OpAmp simplificado se puede construir con cuatro bloques básicos como muestra la figura 44. Figura 44: Estructura interna de un amplificador operacional El primer bloque corresponde a un amplificador diferencial de alto CMRR por lo que debe contener una fuente de corriente; la salida es balanceada y acopla con el segundo bloque que es otro amplificador diferencial de bajo CMRR y salida desbalanceada. Lógicamente esta salida contiene un nivel continuo, por lo que se debe suprimir pasando la señal por un restaurador de nivel y que corresponde al tercer bloque de la figura 44. Por último, la señal posa por el amplificador de salida y que es el encargado de suministrar la corriente requerida por la carga. 140 7.2 INTEGRADOS Un circuito integrado (CI) es una pastilla o chip en la que se encuentran todos o casi todos los componentes necesarios para que un ordenador pueda realizar alguna función. Estos componentes son transistores en su mayoría, aunque también contienen resistencias, diodos, condensadores, etc. El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo que integraba seis transistores en una misma base semiconductora. En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información. Atendiendo al nivel de integración - número de componentes - los circuitos integrados se clasifican en: • • • • • SSI (Small Scale Integration) pequeño nivel: inferior a 12 MSI (Medium Scale Integration) medio: 12 a 99 LSI (Large Scale Integration) grande : 100 a 9999 VLSI (Very Large Scale Integration) muy grande : 10.000 a 99.999 ULSI (Ultra Large Scale Integration) ultra grande : igual o superior a 100000 En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos: • Circuitos integrados analógicos. Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos. • Circuitos integrados digitales. Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados microprocesadores. Los circuitos integrados fueron posibles gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar las funciones de los tubos de vacío. La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre la ensamblaje manual de los tubos de vacío (válvulas) y circuitos utilizando componentes discretos. La capacidad de producción masiva de circuitos integrados, confiabilidad y facilidad de agregarles complejidad, impuso la estandarización de los CIs en lugar de diseños utilizando 141 transistores que pronto dejaron obsoletas a las válvulas o tubos de vacío. Existen dos ventajas principales de los CIs sobre los circuitos convencionales: coste y rendimiento. El bajo coste es debido a que los chips, con todos sus componentes, son impresos como una sola pieza por fotolitografía y no construidos por transistores de a uno por vez. Avances en los circuitos integrados Entre los circuitos integrados más avanzados se encuentran los microprocesadores, que controlan todo desde computadoras hasta teléfonos celulares y hornos de microondas. Los chips de memorias digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información. Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción el costo individual de los CIs por lo general se reduce al mínimo. La eficiencia de los CIs es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo (como es el caso de CMOS) en altas velocidades de conmutación. Con el transcurso de los años, los CIs están constantemente migrando a tamaños más pequeños con mejores características, permitiendo que mayor cantidad de circuitos sean empaquetados en cada chip (véase la ley de Moore). Al mismo tiempo que el tamaño se comprime, prácticamente todo se mejora (el costo y el consumo de energía disminuyen y la velocidad aumenta). Aunque estas ganancias son aparentemente para el usuario final, existe una feroz competencia entre los fabricantes para utilizar geometrías cada vez más delgadas. Este proceso, y el esperado proceso en los próximos años, está muy bien descrito por la International Technology Roadmap for Semiconductors, o ITRS. Popularidad de los CIs Solo ha trascurrido medio siglo después de que se inicio su desarrollo y los circuitos integrados se han vuelto omnipresentes. Computadoras, teléfonos móviles y otras aplicaciones digitales son ahora partes inextricables de las sociedades modernas. La informática, las comunicaciones, la manufactura y los sistemas de transporte, incluyendo Internet, todos dependen de las existencia de los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución digital causada por los circuitos integrados es uno de los sucesos más significativos de la historia de la humanidad. 7.2.1 Compuertas Una puerta lógica, o compuerta lógica, es un dispositivo electrónico que es la expresión física de un operador booleano en la lógica de conmutación. Cada 142 puerta lógica consiste en una red de dispositivos interruptores que cumple las condiciones booleanas para el operador particular. Son esencialmente circuitos de conmutación integrados en un chip. Claude Elwood Shannon experimentaba con relés o interruptores electromagnéticos para conseguir las condiciones de cada compuerta lógica, por ejemplo, para la función booleana Y (AND) colocaba interruptores en circuito serie, ya que con uno solo de éstos que tuviera la condición "abierto", la salida de la compuerta Y sería = 0, mientras que para la implementación de una compuerta O (OR), la conexión de los interruptores tiene una configuración en circuito paralelo. La tecnología microelectrónica actual permite la elevada integración de transistores actuando como conmutadores en redes lógicas dentro de un pequeño circuito integrado. El chip de la CPU es una de las máximas expresiones de este avance tecnológico. Puerta SI (IF) Símbolo de la función lógica SI a) Contactos, b) Normalizado y c) No normalizado La puerta lógica SI, realiza la función booleana igualdad. En la práctica se suele utilizar como amplificador de corriente (buffer en inglés). La ecuación característica que describe el comportamiento de la puerta SI es: Tabla de verdad puerta SI Entrada A Salida A 0 0 1 1 143 Puerta Y (AND) Símbolo de la función lógica Y a) Contactos, b) Normalizado y c) No normalizado La puerta lógica Y, más conocida por su nombre en inglés AND, realiza la función booleana de producto lógico. Su símbolo es un punto (·), aunque se suele omitir. Así, el producto lógico de las variables A y B se indica como AB, y se lee A y B o simplemente A por B. La ecuación característica que describe el comportamiento de la puerta AND es: Tabla de verdad puerta AND Entrada A Entrada B Salida AB 0 0 0 0 1 0 1 0 0 1 1 1 Su definición se puede dar, como una compuerta que entrega un 1 lógico sólo si todas las entradas están a nivel alto 1. Puerta O (OR) La puerta lógica O, más conocida por su nombre en inglés OR, realiza la operación de suma lógica. Su símbolo es el sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta OR es: Tabla de verdad puerta OR 144 Entrada A Entrada B Salida A + B 0 0 0 0 1 1 1 0 1 1 1 1 Podemos definir la puerta O como aquella que proporciona a su salida un 1 lógico si al menos una de sus entradas está a 1. Puerta OR-exclusiva (XOR) Símbolo de la función lógica O-exclusiva. a) Contactos, b) Normalizado y c) No normalizado La puerta lógica O-exclusiva, más conocida por su nombre en inglés XOR, realiza la función booleana A'B+AB'. Su símbolo es el más (+) inscrito en un círculo. En la figura de la derecha pueden observarse sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta XOR es: Tabla de verdad puerta XOR Entrada A Entrada B Salida A 0 0 0 0 1 1 1 0 1 1 1 0 B 145 Se puede definir esta puerta como aquella que da por resultado uno, cuando los unos en las entradas son impares. ej: 1 y 0, 0 y 1 (en una compuerta de dos entradas). Lógica negada Puerta NO (NOT) Símbolo de la función lógica NO a) Contactos, b) Normalizado y c) No normalizado La puerta lógica NO (NOT en inglés) realiza la función booleana de inversión o negación de una variable lógica. La ecuación característica que describe el comportamiento de la puerta NOT es: Tabla de verdad puerta NOT Entrada A Salida 0 1 1 0 Se puede definir como una puerta que proporciona el estado inverso del que esté en su entrada. Puerta NO-Y (NAND) 146 Símbolo de la función lógica NO-Y. a) Contactos, b) Normalizado y c) No normalizado La puerta lógica NO-Y, más conocida por su nombre en inglés NAND, realiza la operación de producto lógico negado. En la figura de la derecha pueden observarse sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta NAND es: Tabla de verdad puerta NAND Entrada A Entrada B Salida 0 0 1 0 1 1 1 0 1 1 1 0 Podemos definir la puerta NO-Y como aquella que proporciona a su salida un 0 lógico únicamente cuando todas sus entradas están a 1. Puerta NO-O (NOR) Símbolo de la función lógica NO-O. a) Contactos, b) Normalizado y c) No normalizado La puerta lógica NO-O, más conocida por su nombre en inglés NOR, realiza la operación de suma lógica negada. En la figura de la derecha pueden observarse sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta NOR es: 147 Tabla de verdad puerta OR Entrada A Entrada B Salida 0 0 1 0 1 0 1 0 0 1 1 0 Podemos definir la puerta NO-O como aquella que proporciona a su salida un 1 lógico sólo cuando todas sus entradas están a 0. La puerta lógica NOR constituye un conjunto completo de operadores. Puerta equivalencia (XNOR) Símbolo de la función lógica equivalencia. a) Contactos, b) Normalizado y c) No normalizado La puerta lógica equivalencia, más conocida por su nombre en inglés XNOR, realiza la función booleana AB+A'B'. Su símbolo es un punto (·) inscrito en un círculo. En la figura de la derecha pueden observarse sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta XNOR es: Tabla de verdad puerta XNOR Entrada A Entrada B Salida 0 0 1 0 1 0 1 0 0 1 1 1 148 Se puede definir esta puerta comos aquella que proporciona un 1 lógico, sólo si las dos entradas son iguales, esto es, 0 y 0 ó 1 y 1. Simbología Actualmente se usan dos tipos de símbolos, ambos definidos por el IEEE en la norma ANSI. El símbolo tradicional es el más usado al ser el más simple para dibujarlo a mano, a la vez que es más visual. El símbolo rectangular está basado en la IEC 60617-12. Esta simbología ha sido ampliamente aceptada por grandes estándares. Type Símbolo tradicional Símbolo rectangular AND OR NOT En electrónica una puerta NOT se suele llamar inversor. El círculo en el símbolo se llama 'burbuja' y se usa en diagramas de circuitos para indicar una entrada o salida inversora. NAND NOR En la práctica, la puerta lógica más barata y más usada suele ser la puerta NAND. Charles Peirce mostró que las puertas NAND pueden usarse solas (de la misma forma que las puertas NOR) para conseguir los mismos resultados que con otras puertas lógicas. 149 Puede que alguna vez se encuentre una puerta OR con una burbuja en cada una de sus entradas, ya que por las Leyes de De Morgan se puede demostrar que equivale a una puerta NAND, de la misma forma que una puerta NOR equivale a una puerta AND con burbujas en sus entradas. Son símbolos equivalentes. Existen además dos puertas lógicas, la llamada OR-Exclusiva o XOR y su inversa NOR-Exclusiva o XNOR. Consisten en detectar cuándo las entradas son iguales, para dar 0 en el caso de XOR ó 1 en el caso de XNOR. XOR XNOR Distribución y fotografía de una compuerta AND, 7400 El chip 7400 contiene cuatro puertas NAND. Los dos conectores adicionales son: conexión a fuente (+5 V) y masa o tierra (0 V) Puertas lógicas triestado Las puertas lógicas triestado (de tres estados), son un tipo de puertas es las cuales la salida tiene, además de los niveles alto y bajo, un tercer estado de alta impedancia normalmente representado por Z. El estado Z se implementa únicamente para facilitar el diseño de los circuitos, y no contiene ninguna 150 información. Esta característica se utiliza en circuitos en los cuales las salidas de varias puertas lógicas se conectan a una única entrada, (evitando así un cortocircuito). Una entrada de control activa una única salida a la vez, dependiendo de la operación lógica requerida por el diseñador, mientras que las otras salidas se mantienen en el estado Z de alta impedancia (también denominado 'deshabilitado'). 7.2.2 Microelectrónica La microelectrónica es la aplicación de la ciencia electrónica a componentes y circuitos de dimensiones muy pequeñas, microscópicas y hasta de nivel molecular para producir dispositivos y equipos electrónicos de dimensiones reducidas pero altamente funcionales. El teléfono celular, el microprocesador de la CPU y la computadora tipo Palm son claros ejemplos de los alcances actuales de la Tecnología Microelectrónica. Fabricar un circuito integrado es un proceso complejo y en el que intervienen numerosas etapas. Cada fabricante tiene sus propias técnicas que guardan como secreto de empresa, aunque las técnicas son parecidas. Los dispositivos integrados pueden ser tanto analógicos como digitales, aunque todos tienen como base un material semiconductor, normalmente el silicio. 7.2.3 Microprocesadores Un microprocesador es un conjunto de circuitos electrónicos altamente integrado para cálculo y control computacional. El microprocesador es utilizado como Unidad Central de Proceso en un sistema microordenador y en otros dispositivos electrónicos complejos como cámaras fotográficas e impresoras, y como añadido en pequeños aparatos extraíbles de otros aparatos más complejos como por ejemplo equipos musicales de automóviles. Parámetros significativos de un procesador son su ancho de bus (medido en bits), la frecuencia de reloj a la que trabajan (medida en hercios), y el tamaño de memoria caché (medido en kilobytes). Generalmente, el microprocesador tiene circuitos de almacenamiento (o memoria caché) y puertos de entrada/salida en el mismo circuito integrado (o chip). Vale acotar que existen dos tipos de memoria caché cuyo funcionamiento es análogo: (a) L1 o interna (situada dentro del propio procesador y por tanto de acceso aún más rápido y aún más cara). La caché de primer nivel contiene muy pocos kilobytes (unos 32 ó 64 Kb); y; (b) L2 o externa 151 (situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché L2 oscilan en la actualidad entre 256 kb y 2 Mb. El zocket es una matriz de pequeños agujeros (zócalo) existente en una placa base donde encajan, sin dificultad, los pines de un microprocesador; dicha matriz permite la conexión entre el microprocesador y dicha placa base. En los primeros ordenadores personales, el microprocesador venía directamente soldado a la placa base, pero la aparición de una amplia gama de microprocesadores llevó a la creación del socket. En general, cada familia de microprocesador requiere un tipo distinto de zócalo, ya que existen diferencias en el número de pines, su disposición geométrica y la interconexión requerida con los componentes de la placa base. Por tanto, no es posible conectar un microprocesador a una placa base con un zócalo no diseñado para él. Generalmente, el microprocesador tiene puertos de entrada/salida en el mismo circuito integrado (o chip). El chipset es un conjunto de circuitos integrados que se encarga de realizar las funciones que el microprocesador delega en ellos. El conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser conocido como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs. En los procesadores habituales el chipset está formado por 2 circuitos auxiliares al procesador principal: 1. El puente norte se usa como puente de enlace entre dicho procesador y la memoria. El NorthBridge controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP, y las comunicaciones con el SouthBrigde. 2. El SouthBridge controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. El puente sur es el encargado de comunicar el procesador con el resto de los periféricos). Este término fue usado frecuentemente en los años 70 y 90 para designar los circuitos integrados encargados de las tareas gráficas de los ordenadores domésticos de la época: el Commodore Amiga y el Atari ST. Ambos ordenadores tenían un procesador principal, pero gran cantidad de sus funciones gráficas y de 152 sonido estaban incluidas en coprocesadores separados que funcionaban en paralelo al procesador principal. Cierto libro compara al Chipset con la médula espinal: una persona puede tener un buen cerebro, pero si la médula falla, todo lo de abajo no sirve para nada. El primer microprocesador comercial, el Intel 4004, fue desarrollado el 15 de noviembre de 1971. Los diseñadores jefe fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde de ZiLOG). Microprocesadores, incluyendo un Intel 80486 y un Intel 80386 Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van actualmente desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritméticológica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección. Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix, AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Itanium, Transmeta Efficeon o Cell. Ahora los nuevos micros pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4. Antecedentes históricos Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el 153 microprocesador surgiera por simple disminución del procesador. Entre esas evoluciones podemos destacar estos hitos: • • • • • • ENIAC fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía solo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo. EDVAC fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo. El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces. El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva. El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se considera el primer supercomputador. El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar, propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1. Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los primeros procesadores gran parte de los componentes estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto con el gran número de transistores por microprocesador (debido en parte al uso de memorias cache) es lo que hace que necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centimetros cubicos. Evolución del microprocesador • 1971: Intel 4004: El primer microprocesador comercial fue el Intel 4004, que salió al mercado el 15 de noviembre de 1971. 154 • • • • • • • • • • • • 7.3 19XX: Intel 8008 1978: Intel 8086, Motorola MC68000 1979: Intel 8088 1982: Intel 80286, Motorola MC68020 1985: Intel 80386, Motorola MC68020, AMD80386 1989: Intel 80486, Motorola MC68040, AMD80486 1993: Intel Pentium, Motorola MC68060, AMD K5, MIPS R10000 1995: Intel Pentium Pro 1997: Intel Pentium II, AMD K6, PowerPC6 (versiones G3 y G4), MIPS R120007 1999: Intel Pentium III, AMD K6-2 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, PowerPC G4, MIPS R14000 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, IMac con Procesador Intel Core Duo, AMD Athlon 64, AMD Athlon X2, AMD Athlon FX. SISTEMAS EMBEBIDOS Un sistema embebido (a veces traducido del inglés como embebido, empotrado o incrustado) es un sistema informático de uso específico construido dentro de un dispositivo mayor. Los sistemas integrados se utilizan para usos muy diferentes de los usos generales para los que se emplea un ordenador personal. En un sistema integrado la mayoría de los componentes se encuentran incluidos en la placa base (motherboard) (la tarjeta de vídeo, audio, módem, etc.) Dos de las diferencias principales son el precio y el consumo. Puesto que los sistemas integrados se pueden fabricar por decenas de millares o por millones de unidades, una de las principales preocupaciones es reducir los costos. Los sistemas integrados suelen usar un procesador relativamente pequeño y una memoria pequeña para reducir los costes. Se enfrentan, sobre todo, al problema de que un fallo en un elemento implica la necesidad de reparar la placa íntegra. Lentitud no significa que vayan a la velocidad del reloj. En general, se suele simplificar toda la arquitectura del ordenador o computadora para reducir los costes. Por ejemplo, los sistemas integrados emplean a menudo periféricos controlados por interfaces síncronos en serie, que son de diez a cientos de veces más lentos que los periféricos de un ordenador o computadora personal normal. Los primeros equipos integrados que se desarrollaron fueron elaborados por IBM en los años 1980. Los programas de sistemas integrados se enfrentan normalmente a problemas de tiempo real. 155 Componentes de un Sistema Integrado En la parte central se encuentra el microprocesador, microcontrolador, DSP, etc. Es decir la CPU o unidad que aporta inteligencia al sistema. Según el sistema puede incluir memoria interna o externa, un micro con arquitectura específica según requisitos. La comunicación adquiere gran importancia en los sistemas integrados. Lo normal es que el sistema pueda comunicarse mediante interfaces estándar de cable o inalámbricas. Así un SE normalmente incorporará puertos de comunicaciones del tipo RS232, RS485, SPI, I²C, CAN, USB, IP, WiFi, GSM, GPRS, DSRC, etc. El subsistema de presentación tipo suele ser una pantalla gráfica, táctil, LCD, alfanumérico, etc. Denominamos actuadores a los posibles elementos electrónicos que el sistema se encarga de controlar. Puede ser un motor eléctrico, un conmutador tipo relé etc. El mas habitual puede ser una salida de señal PWM para control de la velocidad en motores de corriente continua. El módulo de E/S analógicas y digitales suele emplearse para digitalizar señales analógicas procedentes de sensores, activar diodos LED, reconocer el estado abierto cerrado de un conmutador o pulsador, etc. El módulo de reloj es el encargado de generar las diferentes señales de reloj a partir de un único oscilador principal. El tipo de oscilador es importante por varios aspectos: por la frecuencia necesaria, por la estabilidad necesaria y por el consumo de corriente requerido. El oscilador con mejores características en cuanto a estabilidad y coste son los basados en resonador de cristal de cuarzo, mientras que los que requieren menor consumo son los RC. Mediante sistemas PLL se obtienen otras frecuencias con la misma estabilidad que el oscilador patrón. El módulo de energía (power) se encarga de generar las diferentes tensiones y corrientes necesarias para alimentar los diferentes circuitos del SE. Usualmente se trabaja con un rango de posibles tensiones de entrada que mediante conversores ac/dc o dc/dc se obtienen las diferentes tensiones necesarias para alimentar los diversos componentes activos del circuito. Además de los conversores ac/dc y dc/dc, otros módulos típicos, filtros, circuitos integrados supervisores de alimentación, etc. El consumo de energía puede ser determinante en el desarrollo de algunos SE que necesariamente se alimentan con baterías y es imposible su sustitución, con lo que la vida del SE suele ser vida de las baterías. 156 Microprocesadores y sistemas embebidos Un microprocesador es una implementación en forma de circuito integrado (IC) de la Unidad Central de Proceso CPU de un ordenador. Frecuentemente nos referimos a un microprocesador como simplemente “CPU”, y la parte de un sistema que contiene al microprocesador se denomina subsistema de CPU. Los microprocesadores varían en consumo de potencia, complejidad y coste. Los hay de unos pocos miles de transistores y con coste inferior a 2 euros (en producción masiva) hasta de más de cinco millones de transistores que cuestan más de 600 euros. Los subsistemas de entrada/salida y memoria pueden ser combinados con un subsistema de CPU para formar un ordenador o sistema integrado completo. Estos subsistemas se interconectan mediante los buses de sistema (formados a su vez por el bus de control, el bus de direcciones y el bus de datos). El subsistema de entrada acepta datos del exterior para ser procesados mientras que el subsistema de salida transfiere los resultados hacia el exterior. Lo más habitual es que haya varios subsistemas de entrada y varios de salida. A estos subsistemas se les reconoce habitualmente como periféricos de E/S. El subsistema de memoria almacena las instrucciones que controlan el funcionamiento del sistema. Estas instrucciones comprenden el programa que ejecuta el sistema. La memoria también almacena varios tipos de datos: datos de entrada que aún no han sido procesados, resultados intermedios del procesado y resultados finales en espera de salida al exterior. Es importante darse cuenta de que los subsistemas estructuran a un sistema según funcionalidades. La subdivisión física de un sistema, en términos de circuitos integrados o placas de circuito impreso (PCBs) puede y es normalmente diferente. Un solo circuito integrado (IC ) puede proporcionar múltiples funciones, tales como memoria y entrada/salida. Un microcontrolador (MCU) es un IC que incluye una CPU, memoria y circuitos de E/S. Entre los subsistemas de E/S que incluyen los microcontroladores se encuentran los temporizadores, los convertidores analógico a digital (ADC) y digital a analógico (DAC) y los canales de comunicaciones serie. Estos subsistemas de E/S se suelen optimizar para aplicaciones específicas (por ejemplo audio, video, procesos industriales, comunicaciones, etc.). Hay que señalar que las líneas reales de distinción entre microprocesador, microcontrolador y microcomputador en un solo chip están difusas, y se denominan en ocasiones de manera indistinta unos y otros. 157 En general, un SE consiste en un sistema con microprocesador cuyo hardware y software están específicamente diseñados y optimizados para resolver un problema concreto eficientemente. Normalmente un SE interactúa continuamente con el entorno para vigilar o controlar algún proceso mediante una serie de sensores. Su hardware se diseña normalmente a nivel de chips, o de interconexión de PCBs, buscando la mínima circuitería y el menor tamaño para una aplicación particular. Otra alternativa consiste en el diseño a nivel de PCBs consistente en el ensamblado de placas con microprocesadores comerciales que responden normalmente a un estándar como el PC-104 (placas de tamaño concreto que se interconectan entre sí “apilándolas” unas sobre otras, cada una de ellas con una funcionalidad específica dentro del objetivo global que tenga el SE ). Esta última solución acelera el tiempo de diseño pero no optimiza ni el tamaño del sistema ni el número de componentes utilizados ni el coste unitario. En general, un sistema embebido simple contará con un microprocesador, memoria, unos pocos periféricos de E/S y un programa dedicado a una aplicación concreta almacenado permanentemente en la memoria. El término embebido o empotrado hace referencia al hecho de que el microcomputador está encerrado o instalado dentro de un sistema mayor y su existencia como microcomputador puede no ser aparente. Un usuario no técnico de un sistema embebido puede no ser consciente de que está usando un sistema computador. En algunos hogares las personas, que no tienen por qué ser usuarias de un ordenador personal estándar (PC), utilizan del orden de diez o más sistemas embebidos cada día. Los microcomputadores embebidos en estos sistemas controlan electrodomésticos tales como: televisores, videos, lavadoras, alarmas, teléfonos inalámbricos, etc. Incluso un PC tiene microcomputadores embebidos en el monitor, impresora, y periféricos en general, adicionales a la CPU del propio PC. Un automóvil puede tener hasta un centenar de microprocesadores y microcontroladores que controlan cosas como la ignición, transmisión, dirección asistida, frenos antibloqueo (ABS), control de la tracción, etc. Los sistemas embebidos se caracterizan normalmente por la necesidad de dispositivos de E/S especiales. Cuando se opta por diseñar el sistema embebido partiendo de una placa con microcomputador también es necesario comprar o diseñar placas de E/S adicionales para cumplir con los requisitos de la aplicación concreta. Muchos sistemas embebidos son sistemas de tiempo real. Un sistema de tiempo real debe responder, dentro de un intervalo restringido de tiempo, a eventos externos mediante la ejecución de la tarea asociada con cada evento. Los sistemas de tiempo real se pueden caracterizar como blandos o duros. Si un sistema de tiempo real blando no cumple con sus restricciones de tiempo, simplemente se degrada el rendimiento del sistema, pero si el sistema es de tiempo real duro y no cumple con sus restricciones de tiempo, el sistema fallará. Este fallo puede tener posiblemente consecuencias catastróficas. 158 Un sistema embebido complejo puede utilizar un sistema operativo como apoyo para la ejecución de sus programas, sobre todo cuando se requiere la ejecución simultánea de los mismos. Cuando se utiliza un sistema operativo lo más probable es que se tenga que tratar de un sistema operativo en tiempo real (RTOS), que es un sistema operativo diseñado y optimizado para manejar fuertes restricciones de tiempo asociadas con eventos en aplicaciones de tiempo real. En una aplicación de tiempo real compleja la utilización de un RTOS multitarea puede simplificar el desarrollo del software. Hoy en día existen en el mercado fabricantes que integran un microprocesador y los elementos controladores de los dispositivos fundamentales de entrada y salida en un mismo chip, pensando en las necesidades de los sistemas embebidos (bajo coste, pequeño tamaño, entradas y salidas específicas,...). Su capacidad de proceso suele ser inferior a los procesadores de propósito general pero cumplen con su cometido ya que los sistemas donde se ubican no requieren tanta potencia. Los principales fabricantes son ST Microelectronics (familia de chips STPC), National (familia Geode), Motorola (familia ColdFire) e Intel. En cuanto a los sistemas operativos necesarios para que un sistema basado en microprocesador pueda funcionar y ejecutar programas suelen ser específicos para los sistemas embebidos. Así nos encontramos con sistemas operativos de bajos requisitos de memoria, posibilidad de ejecución de aplicaciones de tiempo real, modulares (inclusión sólo de los elementos necesarios del sistema operativo para el sistema embebido concreto), etc. Los más conocidos en la actualidad son Windows CE, QNX y VxWorks de WindRiver. Aplicaciones de un sistema embebido Los lugares donde se pueden encontrar los sistemas embebidos son numerosos y de varias naturalezas. A continuación se exponen varios ejemplos para ilustrar las posibilidades de los mismos: • • En una fábrica, para controlar un proceso de montaje o producción. Una máquina que se encargue de una determinada tarea hoy en día contiene numerosos circuitos electrónicos y eléctricos para el control de motores, hornos, etc. que deben ser gobernados por un procesador, el cual ofrece un interfaz persona – máquina para ser dirigido por un operario e informarle al mismo de la marcha del proceso. Puntos de servicio o venta (POS, Point Of Service). Las cajas donde se paga la compra en un supermercado son cada vez más completas, integrando teclados numéricos, lectores de códigos de barras mediante láser, lectores de tarjetas bancarias de banda magnética o chip, pantalla alfanumérica de cristal líquido, etc. El sistema embebido en este caso requiere numerosos conectores de entrada y salida y unas características robustas para la operación continuada. 159 • • • • • • • • Puntos de información al ciudadano. En oficinas de turismo, grandes almacenes, bibliotecas, etc. existen equipos con una pantalla táctil donde se puede pulsar sobre la misma y elegir la consulta a realizar, obteniendo una respuesta personalizada en un entorno gráfico amigable. Decodificadores y set-top boxes para la recepción de televisión. Cada vez existe un mayor número de operadores de televisión que aprovechando las tecnologías vía satélite y de red de cable ofrecen un servicio de televisión de pago diferenciado del convencional. En primer lugar envían la señal en formato digital MPEG-2 con lo que es necesario un procesado para decodificarla y mandarla al televisor. Además viaja cifrada para evitar que la reciban en claro usuarios sin contrato, lo que requiere descifrarla en casa del abonado. También ofrecen un servicio de televisión interactiva o web-TV que necesita de un software específico para mostrar páginas web y con ello un sistema basado en procesador con salida de señal de televisión. Sistemas radar de aviones. El procesado de la señal recibida o reflejada del sistema radar embarcado en un avión requiere alta potencia de cálculo además de ocupar poco espacio, pesar poco y soportar condiciones extremas de funcionamiento (temperatura, presión atmosférica, vibraciones, etc.). Equipos de medicina en hospitales y ambulancias UVI – móvil. Máquinas de revelado automático de fotos. Cajeros automáticos. Pasarelas (Gateways) Internet-LAN. Y un sin fin de posibilidades aún por descubrir o en estado embrionario como son las neveras inteligentes que controlen su suministro vía Internet, PCs de bolsillo, etc. Ventajas de un sistema embebido sobre las soluciones industriales tradicionales Los equipos industriales de medida y control tradicionales están basados en un microprocesador con un sistema operativo propietario o específico para la aplicación correspondiente. Dicha aplicación se programa en ensamblador para el microprocesador dado o en lenguaje C, realizando llamadas a las funciones básicas de ese sistema operativo que en ciertos casos ni siquiera llega a existir. Con los modernos sistemas PC embebido basados en microprocesadores i486 o i586 se llega a integrar el mundo del PC compatible con las aplicaciones industriales. Ello implica numerosas ventajas: • Posibilidad de utilización de sistemas operativos potentes que ya realizan numerosas tareas: comunicaciones por redes de datos, soporte gráfico, concurrencia con lanzamiento de threads, etc. Estos sistemas operativos pueden ser los mismos que para PCs compatibles (Linux, Windows, MS-DOS) con fuertes exigencias en hardware o bien ser una versión reducida de los mismos con características orientadas a los PCs embebidos. 160 • • Al utilizar dichos sistemas operativos se pueden encontrar fácilmente herramientas de desarrollo software potentes así como numerosos programadores que las dominan, dada la extensión mundial de las aplicaciones para PCs compatibles. Reducción en el precio de los componentes hardware y software debido a la gran cantidad de PCs en el mundo. 7.3.1 FPGA91 FPGA es el acrónimo de Field-programmable gate array (Matriz de puertas programable por un usuario en el 'campo' de una aplicación). Se trata de dispositivos electrónicos digitales programables de muy alta densidad. Estructura Internamente una FPGA es una serie de pequeños dispositivos lógicos, que algunos fabricantes llaman CLB, organizados por filas y columnas. Entre los CLB hay un gran número de elementos de interconexión, líneas que pueden unir unos CLB con otros y con otras partes de la FPGA. Puede haber líneas de distintas velocidades. También hay pequeños elementos en cada una de las patillas del chip para definir la forma en que ésta trabajará (entrada, salida, entrada-salida...). Se suelen llamar IOB. Aparte de esta estructura, que es la básica, cada fabricante añade sus propias ideas, por ejemplo hay algunos que tienen varios planos con filas y columnas de CLB. Los CLB contienen en su interior elementos hardware programables que permiten que su funcionalidad sea elevada. También es habitual que contengan dispositivos de memoria. Programación La tarea del programador es definir la función lógica que realizará cada uno de los CLB, seleccionar el modo de trabajo de cada IOB e interconectarlos todos. El diseñador cuenta con la ayuda de herramientas de programación. Cada fabricante suele tener las suyas, aunque usan unos lenguajes de programación comunes. Estos lenguajes son los HDL o Hadware Description Language (lenguajes de descripción de hardware): 91 http://es.wikipedia.org/wiki/FPGA 161 • • • VHDL Verilog ABEL Aplicaciones típicas Las características de las FPGA son su flexibilidad, capacidad de procesado en paralelo y velocidad. Esto les convierte en dispositivos idóneos para: Simulación y depuración en el diseño de microprocesadores. Simulación y depuración en el diseño de ASICs. Procesamiento de señal digital, por ejemplo vídeo. Sistemas aeronaúticos y militares. En Internet hay disponible código fuente de sistemas como microprocesadores, microcontroladores, filtros, módulos de comunicaciones, memorias, etc. Estos códigos se llaman cores. Vendedores Actel, Altera, Atmel, Cypress, Lattice, QuickLogic, Xilinx 7.3.4 Convertidores A/D92 Una conversión analógica-digital consiste en la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento (encriptación, compresión, etc.) y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son más sensibles las señales analógicas. Señal analógica versus señal digital Una señal analógica es aquella que puede tomar una infinidad de valores (frecuencia y amplitud) dentro de un límite superior e inferior. El término analógico proviene de análogo. Por ejemplo, si se observa en un osciloscopio, la forma de la señal eléctrica en que convierte un micrófono el sonido que capta, ésta sería similar a la onda sonora que la originó. En cambio, una señal digital es aquella señal cuyos valores (frecuencia y amplitud) no son continuos sino discretos, lo que significa que la señal necesariamente ha de tomar unos determinados valores fijos predeterminados. Estos valores fijos se toman del sistema binario, lo que significa que la señal va a quedar convertida en 92 www.wikipedia.org 162 una combinación de ceros y unos, que ya no se parece en nada a la señal original. Precisamente, el término digital tiene su origen en esto, en que la señal se construye a partir de números (dígitos). ¿Por qué digitalizar? Ventajas de la señal digital 1. La señal digital es más resistente al ruido. La señal digital es menos sensible que la analógica a las interferencias, etc. 2. Ante la pérdida de cierta cantidad de información, la señal digital puede ser reconstruida gracias a los sistema de regeneración de señales (usados también para amplificarla, sin introducir distorsión). También cuenta, con sistemas de detección y corrección de errores que, por ejemplo, permiten introducir el valor de una muestra dañada, obteniendo el valor medio de las muestras adyacentes (interpolación). 3. Facilidad el procesamiento de la señal. Cualquier operación está al alcance de un cliqueo. 4. La señal digital permite la multigeneración infinita sin pérdidas de calidad. Esta ventaja sólo es aplicable a los formatos de disco óptico, la cinta magnética digital, aunque en menor medida que la analógica (que sólo soporta como mucho 4 o 5 generaciones), también va perdiendo información con la multigeneración. Inconvenientes de la señal digital 1. La señal digital requiere mayor ancho de banda para ser transmitida que la analógica. 2. Se necesita una conversión analógica-digital previa y una decodificación posterior, en el momento de la recepción. 3. La transmisión de señales digital requiere una sincronización precisa entre los tiempos del reloj de transmisor, con respecto a los del receptor. Un desfase, por mínimo que sea, cambia por completo la señal. Digitalización La digitalización o conversión analógica-digital (conversión A/D) consiste básicamente en realizar de forma periódica medidas de la amplitud de la señal y traducirlas a un lenguaje numérico. La conversión A/D también es conocida por el acrónimo inglés ADC (analogic to digital conversion). En esta definición están patentes los cuatro procesos que intervienen en la conversión analógica-digital: 163 1. Muestreo: El muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toman esta muestra, es decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo. 2. Retención (En inglés, Hold): Las muestras tomadas han de ser retenidas (retención) por un circuito de retención (Hold), el tiempo suficiente para permitir evaluar su nivel (cuantificación). 3. Cuantificación: En el proceso de cuantificación se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor de una señal analizada a un único nivel de salida. 4. Codificación: La codificación consiste en traducir los valores obtenidos durante la cuantificación al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros tipos de códigos que también son utilizados. Durante el muestreo y la retención, la señal aun es analógica puesto que aún puede tomar cualquier valor. No obstante, a partir de la cuantificación, cuando la señal ya toma valores finitos, la señal ya es digital. Los cuatro procesos tienen lugar en un conversor analógico-digital. Compresión La compresión consiste en la reducción de la cantidad de datos a transmitir o grabar, pues hay que tener en cuenta que la capacidad de almacenamiento de los soportes es finita, de igual modo, que los equipos de transmisión pueden manejar sólo una determinada tasa de datos. Para realizar la compresión de las señales, se usan complejos algoritmos de compresión (fórmulas matemáticas). Hay dos tipos de compresión: 1. Compresión sin pérdidas: En esencia se transmite toda la información, pero eliminando la información repetida, agrupándola para que ocupe menos...etc. 2. Compresión con pérdidas: Se desprecia cierta información considerada irrelevante. Este tipo de compresión puede producir pérdida de calidad en el resultado final. 7.4 OPTOELECTRÓNICA93 La optoelectrónica es el nexo de unión entre los sistemas ópticos y los sistemas electrónicos. Los componentes optoelectrónicos son aquellos cuyo funcionamiento 93 http://www.info-ab.uclm.es/labelec/solar/Componentes/OPTOELECTRONICA.html 164 está relacionado directamente con la luz y cada día son más utilizados en diversas aplicaciones. En la actualidad es muy fácil observar en cualquier dispositivo electrónico o eléctrico con un panel lleno de luces indicando cualquier tipo de información. Por ejemplo, la mayoría de los equipos electrónicos disponen de pilotos que nos avisa, el estado de funcionamiento del equipo, si se encuentra encendido, si la batería ya se termino, si presenta algún tipo de error de funcionamiento o simplemente si esta conectado a la energía eléctrica. Dispositivos Optoelectrónicos Básicos A nivel de componentes podemos distinguir tres tipos de dispositivos: 1. Dispositivos emisores: emiten luz al ser activados por energía eléctrica. Son dispositivos que transforman la energía eléctrica en energía luminosa. A este nivel corresponden los diodos LED o los LÁSER. 2. Dispositivos detectores: generan una pequeña señal eléctrica al ser iluminados. Transforma, pues, la energía luminosa en energía eléctrica. 3. Dispositivos fotoconductores: Conducen la radiación luminosa desde un emisor a un receptor. No se producen transformaciones de energía. 7.4.1 LED Diodo emisor de luz Un diodo LED, acrónimo inglés de Light Emitting Diode (diodo emisor de luz) es un dispositivo semiconductor que emite luz monocromática cuando se polariza en directa y es atravesado por la corriente eléctrica. El color depende del material semiconductor empleado en la construcción del diodo, pudiendo variar desde el ultravioleta, pasando por el espectro de luz visible, hasta el infrarrojo, recibiendo éstos últimos la denominación de diodos IRED (Infra-Red Emitting Diode). A (p) C ó K (n) Figura 59: Representación simbólica del diodo pn 165 Figura 60: LED´S El dispositivo semiconductor está comúnmente encapsulado en una cubierta de plástico de mayor resistencia que las de vidrio que usualmente se emplean en las lámparas incandescentes. Aunque el plástico puede estar coloreado, es sólo por razones estéticas, ya que ello no influye en el color de la luz emitida. Para obtener una buena intensidad luminosa debe escogerse bien la corriente que atraviesa el LED; el voltaje de operación va desde 1,5 hasta 2,2 voltios aproximadamente, y la gama de intensidades que debe circular por él va desde 10 hasta 20 mA en los diodos de color rojo, y de 20 a 40 mA para los otros LEDs. El primer diodo LED que emitía en el espectro visible fue desarrollado por el ingeniero de General Electric Nick Holonyak en 1962. Tecnología LED/OLED En corriente directa (DC), todos los diodos emiten una cierta cantidad de radiación cuando los pares electrón-hueco se recombinan, es decir, cuando los electrones caen desde la banda de conducción (de mayor energía) a la banda de valencia (de menor energía). Indudablemente, la frecuencia de la radiación emitida y, por ende, su color, dependerá de la altura de la banda prohibida (diferencias de energía entre las bandas de conducción y valencia), es decir, de los materiales empleados. Los diodos convencionales, de silicio o germanio, emiten radiación infrarroja muy alejada del espectro visible. Sin embargo, con materiales especiales pueden conseguirse longitudes de onda visibles. Los diodos LED e IRED, además tienen geometrías especiales para evitar que la radiación emitida sea reabsorbida por el material circundante del propio diodo, lo que sucede en los convencionales. 166 Compuestos empleados en la construcción de diodos LED. Compuesto Color Long. onda Arseniuro de galio (GaAs) Infrarrojo 940nm Rojo e infrarrojo 890nm Arseniuro (AlGaAs) de galio y aluminio Arseniuro fosfuro de galio (GaAsP) Rojo, naranja amarillo y Fosfuro de galio (GaP) Verde 555nm Nitruro de galio (GaN) Verde 525nm Seleniuro de zinc (ZnSe) Azul Nitruro de galio e indio (InGaN) Azul 450nm Carburo de silicio (SiC) Azul 480nm Diamante (C) Ultravioleta Silicio (Si) En desarrollo de 630nm Los primeros diodos construidos fueron los diodos infrarrojos y de color rojo, permitiendo el desarrollo tecnológico posterior la construcción de diodos para longitudes de onda cada vez menores. En particular, los diodos azules fueron desarrollados a finales de los 90 por Shuji Nakamura, añadiéndose a los rojos y verdes desarrollados con anterioridad, lo que permitió, por combinación de los mismos, la obtención de luz blanca. El diodo de seleniuro de zinc puede emitir también luz blanca si se mezcla la luz azul que emite con la roja y verde creada 167 por fotoluminiscencia. La más reciente innovación en el ámbito de la tecnología LED son los diodos ultravioletas, que se han empleado con éxito en la producción de luz blanca al emplearse para iluminar materiales fluorescentes. Tanto los diodos azules como los ultravioletas son caros respecto de los más comunes (rojo, verde, amarillo e infrarrojo), siendo por ello menos empleados en las aplicaciones comerciales. Los LED comerciales típicos están diseñados para potencias del orden de los 30 a 60 mW. En torno a 1999 se introdujeron en el mercado diodos capaces de trabajar con potencias de 1 W para uso continuo; estos diodos tienen matrices semiconductoras de dimensiones mucho mayores para poder soportar tales potencias e incorporan aletas metálicas para disipar el calor (ver convección) generado por efecto Joule. En 2002 se comercializaron diodos para potencias de 5 W, con eficiencias en torno a 60 lm/W, es decir, el equivalente a una lámpara incandescente de 50 W. De continuar esta progresión, en el futuro será posible el empleo de diodos LED en la iluminación. El comienzo del siglo XXI ha visto aparecer los diodos OLED (diodos LED orgánicos), fabricados con materiales polímeros orgánicos semiconductores. Aunque la eficiencia lograda con estos dispositivos está lejos de la de los diodos inorgánicos, su fabricación promete ser considerablemente más barata que la de aquellos, siendo además posible depositar gran cantidad de diodos sobre cualquier superficie empleando técnicas de pintado para crear pantallas a color. Aplicaciones Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como por ejemplo equipos de aire acondicionado, equipos de música, etc. y en general para aplicaciones de control remoto, así como en dispositivos detectores. Los diodos LED se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (tráfico, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED. El uso de lámparas LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es previsible que se incremente en el futuro, ya que aunque sus prestaciones son intermedias entre la lámpara incandescente y la lámpara 168 fluorescente, presenta indudables ventajas, particularmente su larga vida útil, su menor fragilidad y la menor disipación de energía, además que para el mismo rendimiento luminoso producen luz de color, mientras que los utilizados hasta ahora tienen un filtro, lo que reduce notablemente su rendimiento. Conexión La diferencia de potencial varía de acuerdo a las especificaciones relacionadas con el color y la potencia soportada. En términos generales puede considerarse: • • • • • • • • Rojo = 1,6 V Rojo alta luminosidad = 1,9v Amarillo = 1,7 V a 2V Verde = 2,4 V Naranja = 2,4 V Blanco brillante= 3,4 V Azul = 3,4 V Azul 430nm= 4,6 V Luego mediante la ley de Ohm, puede calcularse el valor resistivo adecuado para la tensión de la fuente que utilicemos. R = (Vfuente - (Vd1 + Vd2 + ...)) / Intensidad Es importante tener en cuenta que también pueden conectarse varios en serie, sumándose las diferencias de potencial en cada uno. Diodos Láser LASER es un acrónimo de Light Amplification by Stimulated Emission of Radiation. Las aplicaciones de estos diodos son muy diversas y cubren desde el corte de materiales con haces de gran energía hasta la transmisión de datos por fibra óptica. Características: ventajas frente a los diodos LED Los diodos láser son constructivamente diferentes a los diodos LED normales. Las características de un diodo láser son La emisión de luz es dirigida en una sola dirección: Un diodo LED emite fotones en muchas direcciones. Un diodo láser, en cambio, consigue realizar un guiado de la luz preferencial una sola dirección. 169 (a) (b) Figura 61: Corte esquemático de la emisión de luz en diodos LED y láser (a) Emisión fotónica en diodo LED (b) Emisión fotónica en diodo láser La emisión de luz láser es monocromática: Los fotones emitidos por un láser poseen longitudes de onda muy cercanas entre sí. En cambio, en la luz emitida por diodos LED, existen fotones con mayores dispersiones en cuanto a las longitudes de onda. (a) 170 (b) Figura 62: Intensidad de luz en función de la longitud de onda para diodos LED y láser (a) Espectro emitido por un LED (b) espectro emitido por un láser Debido a estas dos propiedades, con el láser se pueden conseguir rayos de luz monocromática dirigidos en una dirección determinada. Como además también puede controlarse la potencia emitida, el láser resulta un dispositivo ideal para aquellas operaciones en las que sea necesario entregar energía con precisión. Materiales utilizados Los materiales utilizados para la fabricación de diodos láser son prácticamente los mismos que en diodos LED. En comunicaciones se utilizan predominantemente diodos láser que emiten en el infrarrojo. También se utilizan de luz roja. Ejemplo de aplicación: El lector de discos compactos Una de las muchas aplicaciones de los diodos láser es la de lectura de información digital de soportes de datos tipo CD-ROM o la reproducción de discos compactos musicales. El principio de operación de uno y otro es idéntico. 171 Figura 63: Esquema del funcionamiento del CD-ROM Un haz láser es guiado mediante lentes hasta la superficie del CD. A efectos prácticos, se puede suponer dicha superficie formada por zonas reflectantes y zonas absorbentes de luz. Al incidir el haz láser en una zona reflectante, la luz será guiada hasta un detector de luz: el sistema ha detectado un uno digital. Si el haz no es reflejado, al detector no le llega ninguna luz: el sistema ha detectado un cero digital. 7.4.2 Fotodetectores Los componentes fotodetectores son aquellos componentes que varían algún parámetro eléctrico en función de la luz. Todos los componentes fotodetectores están basados en el mismo principio. Si construimos un componente con un material semiconductor de manera que la luz pueda incidir sobre dicho material, la luz generará pares electrón - hueco. Esta generación se realiza de manera análoga a la generación térmica de portadores. Existen tres tipos de componentes fotodetecotres: - Fotorresistencias - Fotodiodos - Fototransistores - Fotorresistencias 172 Una fotorresistencia se compone de un material semiconductor cuya resistencia varia en función de la iluminación. La fotorresistencia reduce su valor resistivo en presencia de rayos luminosos. Es por ello por lo que también se le llama resistencias dependientes de luz (light dependent resistors), fotoconductores o células fotoconductoras. Cuando incide la luz en el material fotoconductor se generan pares electrón hueco. Al haber un mayor número de portadores, el valor de la resistencia disminuye. De este modo, la fotorresistencia iluminada tiene un valor de resistencia bajo. Figura 66: Fotogeneración de portadores Si dejamos de iluminar, los portadores fotogenerados se recombinarán hasta volver hasta sus valores iniciales. Por lo tanto el número de portadores disminuirá y el valor de la resistencia será mayor. Figura 67: Estado de conducción sin fotogeneración 173 Por supuesto, el material de la fotorresistencia responderá a unas longitudes de onda determinadas. Es decir, la variación de resistencia será máxima para una longitud de onda determinada. Esta longitud de onda depende del material y el dopado, y deberá ser suministrada por el proveedor. En general, la variación de resistencia en función de la longitud de onda presenta curvas como las de la figura siguiente. Figura 68: Variación de resistencia en función de la longitud de onda de la radiación. El material mas utilizado como sensor es el CdS, aunque también puede utilizarse Silicio, GaAsP y GaP. Fotodiodos Los fotodiodos son diodos de unión PN cuyas características eléctricas dependen de la cantidad de luz que incide sobre la unión. En la figura siguiente se muestra su símbolo circuital. Figura 69: Símbolo circuital del fotodiodo 174 Características Figura 70: Curvas características de un fotodiodo El efecto fundamental bajo el cual opera un fotodiodo es la generación de pares electrón - hueco debido a la energía luminosa. Este hecho es lo que le diferencia del diodo rectificador de silicio en el que, solamente existe generación térmica de portadores de carga. La generación luminosa, tiene una mayor incidencia en los portadores minoritarios, que son los responsables de que el diodo conduzca ligeramente en inversa. El comportamiento del fotodiodo en inversa se ve claramente influenciado por la incidencia de luz. Conviene recordar que el diodo real presenta unas pequeñas corrientes de fugas de valor IS. Las corrientes de fugas son debidas a los portadores minoritarios, electrones en la zona P y huecos en la zona N. La generación de portadores debido a la luz provoca un aumento sustancial de portadores minoritarios, lo que se traduce en un aumento de la corriente de fuga en inversa tal y como se ve en la figura. El comportamiento del fotodiodo en directa apenas se ve alterado por la generación luminosa de portadores. Esto es debido a que los portadores provenientes del dopado (portadores mayoritarios) son mucho más numerosos que los portadores de generación luminosa. 175 Para caracterizar el funcionamiento del fotodiodo se definen los siguientes parámetros: Se denomina corriente oscura (dark current), a la corriente en inversa del fotodiodo cuando no existe luz incidente. Se define la sensibilidad del fotodiodo al incremento de intensidad al polarizar el dispositivo en inversa por unidad de intensidad de luz, expresada en luxes o en mW/cm2. Esta relación es constante para un amplio intervalo de iluminaciones. El modelo circuital del fotodiodo en inversa está formado por un generador de intensidad cuyo valor depende de la cantidad de luz. En directa, el fotodiodo se comporta como un diodo normal. Si está fabricado en silicio, la tensión que cae en el dispositivo será aproximadamente 0,7 V. Los fotodiodos son más rápidos que las fotorresistencias, es decir, tienen un tiempo de respuesta menor, sin embargo solo pueden conducir en una polarización directa corrientes relativamente pequeñas. Geometría Un fotodiodo presenta una construcción análoga a la de un diodo LED, en el sentido que necesita una ventana transparente a la luz por la que se introduzcan los rayos luminosos para incidir en la unión PN. En la Figura 9.15, aparece una geometría típica. Por supuesto, el encapsulado es transparente a la luz. Figura 71: Corte transversal de un fotodiodo comercial Fototransistor 176 Se trata de un transistor bipolar sensible a la luz. Figura 72: Símbolo del fototransistor La radiación luminosa se hace incidir sobre la unión colector base cuando éste opera en la RAN. En esta unión se generan los pares electrón - hueco, que provocan la corriente eléctrica. El funcionamiento de un fototransistor viene caracterizado por los siguientes puntos: - Un fototransistor opera, generalmente sin terminal de base (Ib=0) aunque en algunos casos hay fototransistores tienen disponible un terminal de base para trabajar como un transistor normal. - La sensibilidad de un fototransistor es superior a la de un fotodiodo, ya que la pequeña corriente fotogenerada es multiplicada por la ganancia del transistor. - Las curvas de funcionamiento de un fototransistor son las que aparecen en la Figura 73 Como se puede apreciar, son curvas análogas a las del transistor BJT, sustituyendo la intensidad de base por la potencia luminosa por unidad de área que incide en el fototransistor. Figura 73: Curvas características de un fototransistor típico 177 El Optoacoplador Un optoacoplador es un componente formado por la unión de un diodo LED y un fototransistor acoplados a través de un medio conductor de luz y encapsulados en una cápsula cerrada y opaca a la luz. Figura 74: Esquema de un optoacoplador Cuanta mayor intensidad atraviesa el fotodiodo, mayor será la cantidad de fotones emitidos y, por tanto, mayor será la corriente que recorra el fototransistor. Se trata de una manera de transmitir una señal de un circuito eléctrico a otro. Obsérvese que no existe comunicación eléctrica entre los dos circuitos, es decir existe un trasiego de información pero no existe una conexión eléctrica: la conexión es óptica. Las implementaciones de un optoacoplador son variadas y dependen de la casa que los fabrique. Una de las más populares se ve en la Figura 75 Se puede observar como el LED, en la parte superior, emite fotones que, tras atravesar el vidrio, inciden sobre el fototransistor. Figura 75: Esquema constructivo de un optoacoplador 7.4.3 Fibra Óptica 178 La fibra óptica es una guía de ondas en forma de filamento, generalmente de vidrio (en realidad, de polisilicio), aunque también puede ser de materiales plásticos, capaz de guiar una potencia óptica (lumínica), generalmente introducida por un láser, o por un LED. Las fibras utilizadas en telecomunicación a largas distancias son siempre de vidrio, utilizándose las de plástico solo en algunas redes de ordenadores y otras aplicaciones de corta distancia, debido a que presentan mayor atenuación que las de cristal. Cada filamento consta de un núcleo central de plástico o cristal (óxido de silicio y germanio) con un alto índice de refracción, rodeado de una capa de un material similar con un índice de refracción ligeramente menor. Cuando la luz llega a una superficie que limita con un índice de refracción menor, se refleja en gran parte, cuanto mayor sea la diferencia de índices y mayor el ángulo de incidencia, se habla entonces de reflexión interna total. Así, en el interior de una fibra óptica, la luz se va reflejando contra las paredes en ángulos muy abiertos, de tal forma que prácticamente avanza por su centro. De este modo, se pueden guiar las señales luminosas sin pérdidas por largas distancias. La fibra óptica ha representado una revolución en el mundo de las telecomunicaciones, por cuanto ha desplazado a los cables de cobre para la transmisión de grandes cantidades de información, sea en forma de canales telefónicos, televisión, datos, etc. Charles Kao en su Tesis Doctoral de 1966 estimó que las máximas pérdidas que debería tener la fibra óptica para que resultara práctica en enlaces de comunicaciones eran de 20 dB/km. En 1970 los investigadores Maurer, Keck, Schultz y Zimar que trabajaban para Corning Glass Works fabricaron la primera fibra óptica dopando el sílice con titanio. Las pérdidas eran de 17 dB/km. El primer enlace transoceánico que usó fibras ópticas fue el TAT-8, que comenzó a operar en 1988. Desde entonces se ha empleado fibra óptica en multitud de enlaces transoceánicos, entre ciudades y poco a poco se va extendiendo su uso desde las redes troncales de las operadoras hacia los usuarios finales. ¿Cómo funciona la Fibra Óptica? En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello se le considera el componente activo de este proceso. Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía 179 electromagnética, similar a la señal original. El sistema básico de transmisión se compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo), empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor, amplificador y señal de salida. En resumen, se puede decir que este proceso de comunicación, la fibra óptica funciona como medio de transportación de la señal luminosa, generado por el transmisor de LED’S (diodos emisores de luz) y láser. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica, debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. Fabricación de la Fibra Óptica La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio cilíndrico montados concéntricamente. Se calienta el todo para asegurar la homogeneidad de la barra de vidrio. Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite obtener por estiramiento una fibra monomodo de una longitud de alrededor de 150 km. La barra así obtenida será instalada verticalmente en una torre situada en el primer piso y calentada por las rampas a gas. El vidrio se va a estirar y "colar" en dirección de la raíz para ser enrollado sobre una bobina. Se mide el espesor de la fibra (~10um) para dominar la velocidad del motor del enrollador, a fin de asegurar un diámetro constante. Cada bobina de fibra hace el objeto de un control de calidad efectuado al microscopio. Después se va a envolver el vidrio con un revestimiento de protección (~230 um) y ensamblar las fibras para obtener el cable final a una o varias hebras. ¿De qué están hechas las Fibras Ópticas ? La mayoría de las fibras ópticas se hacen de arena o sílice, materia prima abundante en comparación con el cobre. Con unos kilogramos de vidrio pueden fabricarse aproximadamente 43 kilómetros de fibra óptica. Los dos constituyentes esenciales de las fibras ópticas son el núcleo y el revestimiento. El núcleo es la parte más interna de la fibra y es la que guía la luz. Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de 50 a 125 micras. El revestimiento es la parte que rodea y protege al núcleo. 180 El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda de plástico u otros materiales que lo resguardan contra la humedad, el aplastamiento, los roedores, y otros riesgos del entorno. Componentes de la Fibra Óptica El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra monomodo. La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo. El revestimiento de protección: por lo general esta fabricado en plástico y asegura la protección mecánica de la fibra. Figura 76: Núcleo y revestimiento de la fibra óptica. Tipos de fibra óptica - Fibra Monomodo: Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores flujos se consiguen con esta fibra, pero también es la más compleja de implantar. Sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de "monomodo" (modo de propagación, o camino del haz luminoso, único). Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 mm. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal. 181 Figura 77: Fibra monomodo - Fibra Multimodo de Índice Gradiante Gradual: Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra. La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar otros tipos de fibras: Multimodo de índice escalonado 100/140 mm. Multimodo de índice de gradiente gradual 50/125 mm. Figura 78: Fibra Multimodo de Índice Gradiante Gradual - Fibra Multimodo de índice escalonado: Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción 182 es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su nombre de índice escalonado. Figura 79: Fibra Multimodo de índice escalonado 183