ELECTRÓNICA Informe preliminar sobre el desarrollo de la tecnología electrónica y... OBJETIVO DEL INFORME: _definir el campo de actividad de la...

Anuncio
ELECTRÓNICA
Informe preliminar sobre el desarrollo de la tecnología electrónica y su impacto social.
OBJETIVO DEL INFORME: _definir el campo de actividad de la tecnología electrónica y su impacto social.
La electrónica es el campo de la ingeniería y de la física aplicada relativo al diseño y aplicación de
dispositivos, por lo general circuitos electrónicos, cuyo funcionamiento depende del flujo de electrones para la
generación, transmisión, recepción y almacenamiento de información. Esta información puede consistir en
voz o música (señales de voz) en un receptor de radio, en una imagen en una pantalla de televisión, o en
números u otros datos en un ordenador o computadora.
ANTECEDENTES HISTÓRICOS
Con la introducción de los tubos de vacío a comienzos del siglo XX propició el rápido crecimiento de la
electrónica moderna. Con estos dispositivos se hizo posible la manipulación de señales, algo que no podía
realizarse en los antiguos circuitos telegráficos y telefónicos, ni con los primeros transmisores que utilizaban
chispas de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío se pudieron amplificar
las señales de radio y de sonido débiles, y además podían superponerse señales de sonido a las ondas de radio.
El desarrollo de una amplia variedad de tubos, diseñados para funciones especializadas, posibilitó el rápido
avance de la tecnología de comunicación radial antes de la II Guerra Mundial, y el desarrollo de las primeras
computadoras, durante la guerra y poco después de ella.
Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al tubo de vacío en la mayoría
de sus aplicaciones. Al incorporar un conjunto de materiales semiconductores y contactos eléctricos, el
transistor permite las mismas funciones que el tubo de vacío, pero con un coste, peso y potencia más bajos, y
una mayor fiabilidad. Los progresos subsiguientes en la tecnología de semiconductores, atribuible en parte a
la intensidad de las investigaciones asociadas con la iniciativa de exploración del espacio, llevó al desarrollo,
en la década de 1970, del circuito integrado. Estos dispositivos pueden contener centenares de miles de
transistores en un pequeño trozo de material, permitiendo la construcción de circuitos electrónicos complejos,
como los de los microordenadores o microcomputadoras, equipos de sonido y vídeo, y satélites de
comunicaciones.
RAMAS DE LA ELECTRÓNICA.
Las ramas de la electrónica son muy diversas yendo desde la medicina hasta la micro−computación.
Pasaremos a detallar algunas de ellas:
La astronáutica es la ciencia e ingeniería de los viajes espaciales, tripulados o no. La exploración del espacio o
astronáutica es una ciencia interdisciplinaria que se apoya en conocimientos de otros campos, como física,
astronomía, matemáticas, química, biología, medicina, electrónica y meteorología.
Las sondas espaciales han aportado una enorme cantidad de datos científicos sobre la naturaleza y el origen
del Sistema Solar y del Universo. Los satélites situados en órbita terrestre han contribuido a mejorar las
comunicaciones, la predicción del tiempo, la ayuda a la navegación y el reconocimiento de la superficie
terrestre para la localización de recursos minerales y con fines militares.
La era espacial y la astronáutica práctica empieza con el lanzamiento del Sputnik 1 por la URSS en octubre de
1957, y con el del Explorer 1 por Estados Unidos en enero de 1958. En octubre de 1958 se creó en Estados
Unidos la NASA. En las dos décadas siguientes se llegaron a lanzar más de 1.600 naves espaciales de todo
1
tipo, la mayoría destinadas a orbitar nuestro planeta. Sobre la superficie de la Luna han estado dos docenas de
hombres, que han regresado después a la Tierra. En el año 2000 había ya unos 9.000 objetos (con diámetros
superiores a 10 cm) girando alrededor de la Tierra, en su mayoría restos de cohetes y equipos de sus fases de
lanzamiento, y otros materiales semejantes.
El Sputnik 1 era una esfera de aluminio de 58 cm de diámetro y 83 kg. Tardaba 96,2 minutos en dar la vuelta a
la Tierra. Describía una órbita elíptica y alcanzaba su apogeo a una altura de 946 km, y su perigeo a 227 km.
Contaba con instrumentos electronicos que durante 21 días enviaron información a la Tierra sobre radiación
cósmica, meteoroides y sobre la densidad y la temperatura de las capas superiores de la atmósfera. Al cabo de
57 días el satélite entró en la atmósfera terrestre y se destruyó por efecto del calor debido al rozamiento
aerodinámico.
El segundo satélite artificial fue también un vehículo espacial soviético, de nombre Sputnik 2. Fue lanzado el
3 de noviembre de 1957 y llevaba a bordo un animal, la perra Laika. Realizó las primeras mediciones
biomédicas en el espacio con instrumentación electrónica, gracias a los avances logrados. Este satélite entró
en la atmósfera terrestre destruyéndose después de 162 días de vuelo.
A medida que los sistemas de despegue de las naves espaciales (propulsadas por cohetes) y los equipos
científicos se hicieron más fiables, se fueron desarrollando una gran variedad de satélites con nuevas
tecnologías y electrónica de avanzada. Los científicos trataron de recopilar información y realizar estudios
precisos del Sol, otras estrellas, la Tierra y del mismo espacio. La atmósfera que envuelve la Tierra impide
obtener tales datos, a excepción de la escasa información que se podía conseguir por medio de globos a gran
altitud.
En 1999 se lanzaron dos telescopios de rayos X de tecnología avanzada. En agosto, la NASA puso en órbita el
telescopio Chandra, y en diciembre, un cohete Ariane 5 lanzó el telescopio Newton XMM de la Agencia
Espacial Europea (ESA). En julio y agosto de 2000, la ESA lanzó también los cuatro satélites de la misión
Cluster II, cuyo objetivo es el estudio de la magnetosfera terrestre y su interacción con el viento solar.
SATÉLITES DE APLICACIONES.
Este tipo de satélites no tripulados son también de gran utilidad para los científicos dedicados al estudio de la
Tierra. Se pueden clasificar, a grandes rasgos, en tres tipos: medioambientales, de navegación y de
comunicaciones.
Los satélites medioambientales observan la Tierra y la atmósfera transmitiendo imágenes con diversos fines.
Los satélites meteorológicos envían diariamente datos sobre la temperatura y formación de nubes. Un ejemplo
es el Satélite Meteorológico Sincronizado (SMS), que desde una órbita geoestacionaria envía imágenes de una
extensa zona de la Tierra cada 30 minutos. Dos satélites SMS pueden cubrir todo un continente y sus mares
adyacentes.
Los satélites estadounidenses Landsat observan la Tierra con ayuda de escáneres ópticos multiespectrales y
envían datos a las estaciones en Tierra, que se procesan en imágenes a color y suministran información muy
valiosa sobre características del suelo, cantidades de hielo y agua en los mares, contaminación de las aguas
costeras, salinidad y plagas de insectos en cosechas y bosques. Incluso pueden detectarse incendios forestales
desde los satélites. Los estudios sobre las fallas y fracturas de la corteza terrestre facilitan a los geólogos la
identificación de depósitos y yacimientos de petróleo y minerales. El SPOT (Sistema Probatorio para la
Observación de la Tierra), un satélite europeo lanzado en 1985, logra transmitir imágenes de la Tierra con más
detalle que los estadounidenses Landsat. Véase también Teledetección.
Los satélites de observación terrestre se utilizan en diversos países para obtener imágenes de interés militar,
como explosiones nucleares en la atmósfera y en el espacio, bases de lanzamiento de misiles balísticos, así
2
como movimientos de tropas o barcos. En los años ochenta surgió la polémica cuando Estados Unidos se
propuso desarrollar un sistema de defensa antibalística accionado con tecnología láser.
Los satélites de navegación proporcionan un punto conocido de observación de la órbita terrestre que ayuda a
fijar la posición de barcos y submarinos con un margen de error de unos pocos metros. El Sistema de
Posicionamiento Global (GPS), integrado por 24 satélites, suministra la posición, la velocidad y el tiempo 24
horas al día en cualquier lugar del mundo.
PERSPECTIVAS
Con los contratiempos que supusieron el mal funcionamiento del telescopio espacial Hubble y las fugas en los
tanques de combustible de hidrógeno de la lanzadera espacial, no parecía que el programa espacial de Estados
Unidos pudiera llegar a cumplir sus objetivos para la década de 1990. Además de la estación espacial
tripulada, uno de esos objetivos era la construcción de la nave X−30, proyectada para despegar como los
aviones convencionales y autopropulsarse hasta llegar a la zona orbital con potentes estatorreactores. Todavía
ha de pasar bastante tiempo antes de abordar otros objetivos más ambiciosos, como el de establecer una base
en la Luna y enviar astronautas a explorar el planeta Marte.
La astronomía de rayos X es la detección y estudio de la radiación electromagnética emitida por los cuerpos
celestes en forma de rayos X. La astronomía de rayos X proporciona a los astrofísicos un medio de estudiar
ciertos acontecimientos violentos y ricos en energía que se producen en el Universo. Casi todas las categorías
de objetos astronómicos, desde estrellas cercanas hasta quásares distantes, emiten rayos X en algún momento
de su ciclo vital.
Los rayos X son una parte de un amplio espectro de energía denominado radiación electromagnética. Las
ondas electromagnéticas van desde los rayos gamma, de alta energía y baja longitud de onda, hasta las ondas
de radio de baja energía y longitud de onda elevada, pasando por la luz visible. Los rayos X tienen longitudes
de onda más cortas y energías más elevadas que la luz visible y la radiación ultravioleta, pero su longitud de
onda es mayor que la de los rayos gamma. Son suficientemente potentes, y su longitud de onda es lo
suficientemente baja, para atravesar muchos materiales que reflejan o absorben la luz visible.
Los objetos o regiones del espacio emiten rayos X por alguna de las dos causas siguientes. La mayor parte de
los rayos X procede de regiones en las que un gas se ha calentado a decenas de millones de grados. Este
calentamiento se puede deber a las ondas de choque procedentes de enormes explosiones estelares, a la
precipitación del gas en campos gravitatorios intensos (véase Gravitación) u otros acontecimientos ricos en
energía, que provocan que el gas emita rayos X. La emisión de rayos X provocada por un gas caliente se
denomina emisión térmica. Los rayos X también se pueden emitir cuando un campo magnético muy intenso
acelera los electrones hasta velocidades próximas a la de la luz. Este tipo de emisión de rayos X se denomina
no térmica.
CIRCUITOS DE CONMUTACIÓN Y TEMPORIZACIÓN.
Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base de cualquier dispositivo en
el que se tengan que seleccionar o combinar señales de manera controlada. Entre los campos de aplicación de
estos circuitos se pueden mencionar la conmutación telefónica, las transmisiones por satélite y el
funcionamiento de las computadoras digitales.
La lógica digital es un proceso racional para adoptar sencillas decisiones de verdadero o falso basadas en las
reglas del álgebra de Boole. Verdadero puede estar representado por un 1, y falso por un 0, y en los circuitos
lógicos estos numerales aparecen como señales de dos tensiones diferentes. Los circuitos lógicos se utilizan
para adoptar decisiones específicas de verdadero−falso sobre la base de la presencia de múltiples señales
verdadero−falso en las entradas. Las señales se pueden generar por conmutadores mecánicos o por
3
transductores de estado sólido. La señal de entrada, una vez aceptada y acondicionada (para eliminar las
señales eléctricas indeseadas, o ruidos), es procesada por los circuitos lógicos digitales. Las diversas familias
de dispositivos lógicos digitales, por lo general circuitos integrados, ejecutan una variedad de funciones
lógicas a través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y combinaciones de las
mismas (como NOR, que incluye a OR y a NOT). Otra familia lógica muy utilizada es la lógica
transistor−transistor. También se emplea la lógica de semiconductor complementario de óxido metálico, que
ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de funcionamiento ligeramente
inferiores. Existen también muchas otras variedades de circuitos lógicos, incluyendo la hoy obsoleta lógica
reóstato−transistor y la lógica de acoplamiento por emisor, utilizada para sistemas de muy altas velocidades.
Los bloques elementales de un dispositivo lógico se denominan puertas lógicas digitales. Una puerta Y (AND)
tiene dos o más entradas y una única salida. La salida de una puerta Y es verdadera sólo si todas las entradas
son verdaderas. Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una puerta O es
verdadera si cualquiera de las entradas es verdadera, y es falsa si todas las entradas son falsas. Una puerta
INVERSORA (INVERTER) tiene una única entrada y una única salida, y puede convertir una señal verdadera
en falsa, efectuando de esta manera la función negación (NOT). A partir de las puertas elementales se pueden
construir circuitos lógicos más complicados, entre los que cabe mencionar los circuitos biestables (también
llamados flip−flops, que son interruptores binarios), contadores, comparadores, sumadores, y combinaciones
más complejas.
En general, para ejecutar una determinada función es necesario conectar grandes cantidades de elementos
lógicos en circuitos complejos. En algunos casos se utilizan microprocesadores para efectuar muchas de las
funciones de conmutación y temporización de los elementos lógicos individuales. Los procesadores están
específicamente programados con instrucciones individuales para ejecutar una determinada tarea o tareas. Una
de las ventajas de los microprocesadores es que permiten realizar diferentes funciones lógicas, dependiendo
de las instrucciones de programación almacenadas. La desventaja de los microprocesadores es que
normalmente funcionan de manera secuencial, lo que podría resultar demasiado lento para algunas
aplicaciones. En tales casos se emplean circuitos lógicos especialmente diseñados.
AVANCES RECIENTES
El desarrollo de los circuitos integrados ha revolucionado los campos de las comunicaciones, la gestión de la
información y la informática. Los circuitos integrados han permitido reducir el tamaño de los dispositivos con
el consiguiente descenso de los costes de fabricación y de mantenimiento de los sistemas. Al mismo tiempo,
ofrecen mayor velocidad y fiabilidad. Los relojes digitales, las computadoras portátiles y los juegos
electrónicos son sistemas basados en microprocesadores. Otro avance importante es la digitalización de las
señales de sonido, proceso en el cual la frecuencia y la amplitud de una señal de sonido se codifica
digitalmente mediante técnicas de muestreo adecuadas, es decir, técnicas para medir la amplitud de la señal a
intervalos muy cortos. La música grabada de forma digital, como la de los discos compactos, se caracteriza
por una fidelidad que no era posible alcanzar con los métodos de grabación directa.
La electrónica médica ha progresado desde la tomografía axial computerizada (TAC) hasta llegar a sistemas
que pueden diferenciar aún más los órganos del cuerpo humano. Se han desarrollado asimismo dispositivos
que permiten ver los vasos sanguíneos y el sistema respiratorio. También la alta definición promete sustituir a
numerosos procesos fotográficos al eliminar la necesidad de utilizar plata.
La investigación actual dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo
en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación
aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de
componentes en un solo chip. Se han llegado a fabricar computadoras que alcanzan altísimas velocidades en
las cuales los semiconductores son reemplazados por circuitos superconductores que utilizan las uniones de
Josephson y que funcionan a temperaturas próximas al cero absoluto.
4
MÚSICA ELECTRÓNICA
La música electrónica es la música creada por medios electrónicos. Este concepto incluye la música
compuesta con cintas magnetofónicas (que sólo existe sobre la cinta y se interpreta por medio de altavoces), la
música electrónica en vivo (creada en tiempo real con sintetizadores y otros equipos electrónicos), la música
concreta (creada a partir de sonidos grabados y luego modificados) y la música que combina el sonido de
intérpretes en vivo con música electrónica grabada. Si bien estos tipos de música se refieren en principio a la
naturaleza de la tecnología y las técnicas empleadas, estas divisiones son cada día menos claras. Hoy están en
uso otras terminologías, como música por computadora, música electroacústica o música radiofónica,
definiciones que suelen referirse más a la estética que a las tecnologías utilizadas.
ANTECEDENTES HISTÓRICOS DE LA MÚSICA ELECTRÓNICA.
En la década de 1910, los futuristas italianos, liderados por el compositor Luigi Russolo, concibieron una
música creada con ruidos y cajas de música electrónicas. Fue entonces cuando aparecieron los primeros
instrumentos musicales electrónicos comerciales. No obstante, ciertos compositores visionarios, como
Alexandr Skriabin o Henry Cowell, habían soñado una música creada solamente por medios electrónicos,
aunque este tipo de música no fue un hecho real hasta el desarrollo de la tecnología de la grabación de sonidos
durante la IIGuerra Mundial.
El compositor e ingeniero francés Maurice Martenot presentó en 1928 un instrumento electrónico llamado
ondas Martenot, consistente en un generador de bajas frecuencias manejado con un teclado de piano. En las
décadas de 1940 y 1950, nacieron varios estudios de grabación asociados a los nombres de figuras destacadas,
cuyos objetivos eran específicamente artísticos. En Francia, el ingeniero de sonido y compositor Pierre
Schaeffer fundó el estudio de Radio Francia (RTF) en París, compuesto por varias grabadoras, micrófonos y
equipos para la edición de cintas. Las principales técnicas utilizadas para crear música consistían en cortar,
pegar, empalmar o recorrer hacia atrás distintos fragmentos de la cinta grabada. Estas técnicas de
manipulación de las cintas dieron lugar a un nuevo tipo de montaje de sonido, elaborado con mucho esfuerzo
a partir de las grabaciones provenientes del mundo real. Schaeffer calificó los resultados como música
concreta, un término que aún se sigue utilizando ampliamente, sobre todo en Francia. Su primer experimento
en este nuevo género utilizaba sonidos de grabaciones de trenes. Todas sus obras de esa época eran breves
estudios sobre sonidos y tienen títulos evocadores como la Symphonie pour un homme seul (1950), compuesta
en colaboración con su colega (más joven que él) Pierre Henry. Los experimentos prácticos de Schaeffer en la
composición de música electrónica se basaban en algunos escritos teóricos sobre el tema que influyeron en él.
El estudio de Henry y Schaeffer atrajo a diversos compositores, entre los cuales destacaba Pierre Boulez.
A finales de la década de 1940, Werner Meyer−Eppler, físico y director del Instituto de Fonética de la
Universidad de Bonn, presentó por vez primera el Vocoder, un dispositivo que conseguía sintetizar la voz
humana. Su trabajo teórico influyó en los compositores relacionados con el estudio de la Radio de Alemania
Occidental en Colonia (fundada en 1953), y cuyo interés giraba en torno a la síntesis electrónica de los
sonidos mediante generadores de sonido y otros aparatos. El primer director del estudio de Colonia, Herbert
Eimert, ejerció una gran influencia por su forma de utilizar el serialismo total como base para la construcción
de obras electrónicas. Según este método, todos los aspectos de la música, incluidos el tono, el ritmo y el
volumen relativo, quedaban bajo el control de unos principios definidos numéricamente. Los sonidos y
aparatos electrónicos brindaban la precisión y el control necesarios para la realización de este concepto.
Compositores como Bruno Maderna y Karlheinz Stockhausen elaboraron piezas electrónicas cortas, llamadas
síntesis aditiva. Estas obras se componían enteramente a partir de sonidos electrónicos.
A finales de la década de 1950, ya se habían establecido gran parte de los estudios de música electrónica de
Europa. Los más importantes eran el de la RAI en Milán, fundado por Luciano Berio y Maderna, el Instituto
de Sonología de Utrecht y el estudio EMS de Estocolmo. La división entre la música concreta y la música
electrónica pura fue un fenómeno básicamente europeo. Si bien en EEUU surgieron varios estudios en aquella
5
época, las distinciones estéticas eran allí menos importantes. En la década de 1950 en Nueva York, los
compositores Otto Luening y Vladimir Ussachevski crearon músicas para cinta magnetofónica con un equipo
de estudio muy rudimentario que transformaba los sonidos grabados de instrumentos y voces mediante
técnicas de manipulación de cintas y simples unidades de reverberación. A finales de la década se asociaron
con el Centro de Música Electrónica de Columbia−Princeton, donde el compositor Milton Babbitt empleaba
una enorme computadora RCA para crear una música compuesta con los mismos principios seriales que
Eimert y Stockhausen en Colonia. Su obra Philomel (1964) fue una de las primeras composiciones para
soprano solista y cinta magnetofónica. El desarrollo de la tecnología informática en las décadas de 1950 y
1960 llevó al establecimiento de una serie de estudios dedicados en exclusiva a la música por ordenador en
universidades estadounidenses y, en menor medida, en Europa.
Durante las décadas de 1960 y 1970, los estadounidenses Lansky y Barry Vercoe, entre otros, desarrollaron
paquetes de programas para música (programas informáticos diseñados para la manipulación y creación de
sonido), que se entregaban gratuitamente a los compositores interesados. Esta tradición de software
procedente de las universidades de Estados Unidos ha contribuido en gran medida al crecimiento de la música
por computadora en todo el mundo. Tanto el Centro para la Investigación Informática en Música y Acústica
(CCRMA) de la Universidad de Stanford, en el estado de California, como el Institut de Recherche et de
Coordination Acoustique/Musique (IRCAM) de París (fundado por Pierre Boulez en 1976), utilizaron los
ordenadores de forma significativa y continúan siendo centros influyentes en la composición de música
electrónica en la actualidad.
El rápido desarrollo de la tecnología informática durante los últimos 15 años ha conducido a una revolución
en la música por computadora y en la música electrónica en general. Los ordenadores son ahora más
asequibles, y los programas informáticos, que antes eran muy lentos, funcionan ahora en cuestión de segundos
o incluso de forma simultánea a los instrumentos. Son muchas las universidades y conservatorios actuales
equipados con un estudio de música por ordenador y varios países tienen estudios nacionales, dedicados a la
composición de música electrónica. Además, los músicos trabajan cada vez más de forma independiente, en
estudios particulares.
LOS SINTETIZADORES Y LOS INSTRUMENTOS DE MÚSICA ELECTRÓNICA
A principios del siglo XX se inventaron instrumentos electrónicos como el Telharmonium o el Theremin, pero
eran muy rudimentarios en su construcción y complicados en su funcionamiento. Los sintetizadores e
instrumentos electrónicos con amplificación, susceptibles de ser utilizados en las actuaciones en vivo, se
perfeccionaron en la década de 1960. La computadora central RCA fue en esencia uno de los primeros
sintetizadores electrónicos. El aparato contenía todos los recursos necesarios para generar y modificar los
sonidos por medios electrónicos. En la década de 1960, Robert Moog, Donald Buchla y los fabricantes
británicos EMS, entre otros, comenzaron a producir sintetizadores que utilizaban el control de voltajes. Se
trataba de un medio electrónico para variar el tono o el volumen, y se empleaba para crear, filtrar y modificar,
sonidos electrónicos. Pronto aparecieron sintetizadores que ofrecían una serie de sonidos y efectos
pregrabados. Éstos serían utilizados cada vez más con propósitos comerciales, desde los anuncios de la
televisión hasta la banda sonora de películas de ciencia ficción. Hoy existe una amplia variedad de
sintetizadores, capaces de imitar casi cualquier sonido y de crear gamas tonales y timbres completamente
nuevos.
Los nuevos instrumentos musicales electrónicos de la década de 1960 también contribuyeron al crecimiento
de la música electrónica en vivo, en la cual la creación y la manipulación electrónica del sonido ocurren en
tiempo real (es decir, que se tocan y se escuchan en el momento). Al mismo tiempo, ciertos compositores
creaban música electrónica en vivo con equipos fabricados por ellos mismos. La obra Solo de Stockhausen
(1966), por ejemplo, utilizaba un complejo sistema de retardo de la grabación que requería cuatro ayudantes
para su interpretación. Durante la década de 1960, surgieron numerosos grupos de música electrónica en vivo,
muchos de los cuales interpretaban música improvisada de carácter teatral. En años recientes, la revolución
tecnológica también se tradujo en la aparición de numerosos instrumentos electrónicos y programas de
6
ordenador diseñados para las actuaciones en directo. Destacan, entre otros, el músico y diseñador de
instrumentos Michel Waisvisz, que trabaja en los estudios STEIM de Holanda, inventor de diversos
instrumentos como el llamado The Hands (las manos), en el cual el movimiento de las manos del intérprete en
el espacio activa sonidos complejos y permite manipulaciones sonoras. El compositor−intérprete
estadounidense George Lewis combina la improvisación al trombón con programas personalizados de
composición por ordenador que trabajan de forma simultánea. La estación de trabajo de procesamiento de
señales desarrollada en el IRCAM permite una manipulación muy compleja en tiempo real de los sonidos
instrumentales y sintéticos. Además de estos interfaces (superficie de contacto) altamente especializados,
muchos compositores e intérpretes utilizan algunas cajas de efectos disponibles en el mercado, diseñadas
pensando en el mercado de la música popular.
La evolución del sintetizador y la guitarra eléctrica a partir de la década de 1950 también ha influido en gran
medida en el mundo del pop y la música rock. Los avances tecnológicos fueron acogidos con entusiasmo por
grupos como Grateful Dead, Pink Floyd y Velvet Underground. En la década de 1980 se inventó una nueva
forma de trabajar con instrumentos de música electrónica dirigida al mercado popular: el llamado MIDI
(interfaz digital de instrumentos musicales). El MIDI no es un instrumento musical, sino un medio que
permite a los sintetizadores y otros equipos comunicarse unos con otros mediante el envío de instrucciones
digitales. Por ejemplo, mediante el MIDI un intérprete puede hacer que varios sintetizadores respondan
cuando se toque uno de ellos. El uso de la tecnología musical en la música pop y rock es tan importante que la
naturaleza de los instrumentos y las otras tecnologías musicales relacionadas con la música electrónica están
dictadas, en gran medida, por las necesidades de la industria del rock.
LA SÍNTESIS DEL SONIDO Y LAS TÉCNICAS DE PROCESAMIENTO
Las diferentes técnicas utilizadas para crear música electrónica pueden dividirse entre las que se usan para
crear nuevos sonidos y las que se utilizan para modificar, o transformar, sonidos ya registrados. En épocas
pasadas se usaban osciladores y filtros de control por voltaje, pero estas funciones las realiza hoy el
ordenador. La creación de sonidos completamente nuevos obtenidos por la superposición o la mezcla de
sonidos puros es un proceso llamado síntesis aditiva. Por otra parte, el modelado de sonidos o filtración de
ruido se conoce como síntesis sustractiva. El compositor francés Jean−Claude Risset ha diseñado muchos
timbres por síntesis aditiva en obras como Mutations I (1979), mientras que el estadounidense Charles Dodge
usa la síntesis sustractiva con gran efectividad en su obra Cascando (1983). La síntesis por frecuencia
modulada (FM), documentada por vez primera por el compositor estadounidense John Chowning en la década
de 1960, se emplea como vía para crear sonidos sintéticos complejos. Su pieza para cinta Stria (1976) está
compuesta de varios timbres FM mezclados. Se pueden usar filtros de diferentes tipos para acentuar tonos o
armonías específicas, y los sonidos pueden prolongarse en el tiempo, o elevarse y bajarse de tono, gracias a
técnicas como el vocoding de fase o codificación predictiva lineal. Las Seis fantasías sobre un poema de
Thomas Campion de Paul Lansky (1979) son una obra pionera en este área. Además, se usan técnicas de
reverberación para añadir ecos o un cierto retardo a los sonidos grabados o sintetizados, mientras que se
utilizan técnicas de simulación de espacios o salas para imitar el carácter acústico de las grandes salas de
conciertos y otros espacios. Todas estas técnicas, aisladas o combinadas, son de uso frecuente entre los
compositores de música electrónica.
MÚSICA POR ORDENADOR Y MÚSICA ELECTROACÚSTICA
La música por ordenador se caracteriza por el empleo de la tecnología digital. Si la música creada mediante el
corte y pegado de cintas utilizaba grabadoras y dispositivos analógicos, los ordenadores almacenan la
información de forma digital, como números que pueden manipularse mediante procesos matemáticos usando
programas informáticos. Desde la década de 1960, los términos música electroacústica y por ordenador se
refieren, respectivamente, aunque no de forma constante, a la música analógica y a la digital. Hoy esos
términos se usan casi de forma equivalente, dado que casi toda la música electrónica utiliza ahora tecnología
digital.
7
Son hoy muchos los compositores que escriben música electrónica, en una gran variedad de estilos. En alguno
de estos casos la tecnología digital ofrece la oportunidad de crear una música para cinta magnetofónica que
explore los sonidos del entorno natural. El compositor francés Luc Ferrari ha escrito una serie de piezas,
Presque Rien nº 1−3, usando grabaciones directas de los sonidos del mar o del campo. Otros compositores,
como Denis Smalley en el Reino Unido o el argentino Horacio Vaggione, continúan la tradición de la música
concreta en la que los sonidos grabados son sometidos a un procesamiento y una edición muy intensas. Este
tipo de música, en la que los sonidos grabados son tratados como objetos sonoros abstractos, es conocida
como acusmática. Para compositores como el canadiense Robert Normandeau es importante cómo se presenta
la música de cinta en una actuación. Su obra Spleen (1993) ha de interpretarse con varios altavoces. Otro
autores, como Luis de Pablo en España o Juan García Esquivel en México, también se han servido de medios
electrónicos para componer sus obras.
AVANCES FUTUROS.
La música electrónica es, en relación a la música en general, un campo muy nuevo que ha sabido adaptarse a
los rápidos avances tecnológicos. En años recientes ha habido enormes avances en la tecnología interactiva y
multimedia, de gran influencia en el carácter de la música electrónica y en su interpretación. La disponibilidad
de cada vez mayor tecnología de comunicaciones como Internet y otras redes informáticas han permitido a los
compositores intercambiar programas de música e incluso sonidos grabados. Si se observa este género de
forma aislada, tanto desde el punto de vista de los compositores como del público, se apreciarán las
diferencias tecnológicas y estéticas con respecto a la música convencional. Hoy son muchos los practicantes
de este género que ven la música electrónica como una parte del todo que constituye la música. Muchas obras
combinan sonidos electrónicos y acústicos (instrumentales). Buen número de compositores de este género
trabajan en colaboración con otros medios, como el vídeo, el cine o la danza. Quizá en el futuro el término
música electrónica desaparezca, una vez que tanto la tecnología electrónica como la informática estén
plenamente integradas en el mundo del compositor.
ARTES GRAFICAS.
En el más amplio sentido del término, son las artes del dibujo, la pintura, el grabado, el diseño gráfico y la
fotografía. De forma más específica, se aplica solamente a las técnicas de grabado, sobre todo en su acepción
industrial. En este sentido, el término incluye las diversas facetas de producción de publicaciones y soportes
publicitarios. También se conocen como industrias gráficas.
El fin último de las artes gráficas es el objeto impreso, para cuya realización interviene una serie de procesos
correlacionados. En primer lugar se realiza el diseño o concepción del producto, desarrollado de acuerdo a las
intenciones previas y a las condiciones de manufactura y distribución. Después se realiza la composición o
materialización del diseño propiamente dicho, una etapa que ha ido perdiendo importancia gracias a los
avances tecnológicos, al fundirse con la primera en los actuales sistemas de autoedición. Le sigue el grabado
de las planchas o soportes de la impresión, que pueden adoptar diferentes disposiciones (en plano o en
cilindros) y materiales (madera, caucho, tela o metal, entre otros). El método de impresión estará en función
del tipo de estampación, que condiciona la calidad, la cantidad y los costes de la tirada. Terminada esta
operación, el producto necesita la conformación final, que oscila desde un simple corte o guillotinado, en el
caso de un cartel publicitario, hasta la compleja encuadernación de una edición de lujo.
Aunque los métodos empleados por las artes gráficas sean muy diversos, la industria, desde la invención de la
imprenta, ha tendido a concentrarlos para controlar toda la producción desde una perspectiva integradora. En
la actualidad, la impresión electrónica, unida a los sofisticados medios informáticos, ha generado una cierta
disgregación de este conjunto de actividades, ganando eficacia en detrimento de la calidad de los productos.
Sin embargo, la cultura histórica de las artes gráficas se muestra ya como la única capaz de respaldar los
nuevos métodos de edición y comunicación virtuales.
8
NÁUTICA.
Las fuerzas navales de todo el mundo están reduciendo el número de buques de sus flotas, pero a la vez
invierten en dotar a cada una de sus naves de complejos instrumentos. Sofisticados sistemas de ordenadores y
de misiles aseguran que cada barco sea más eficaz, más versátil y más difícil de hundir. Muchos están
equipados con una serie de dispositivos de guerra electrónica que evitan que los misiles enemigos los
conviertan en objetivos: la tecnología de ocultación se utiliza cada vez más en los barcos. Al principio a los
barcos en activo se les colocaban pantallas de plásticos que absorbían las señales del radar. Pero las nuevas
naves se diseñan cada vez más con superficies inclinadas que dispersan las señales del radar como lo hacen las
superficies del avión de combate invisible Lockheed F−117. Lockheed presentó el Sea Shadow, un catamarán
anguloso que parece una pirámide truncada que flota sobre el agua. Un buque en la práctica invisible como
ése, sería ideal para funcionar como una nave de defensa antiaérea de largo alcance, desplegado para formar
junto con otros una pantalla alejada de la flota de ataque principal. En el futuro, los buques de guerra seguirán
manteniendo un papel vital en la estrategia naval.
LA BIOFÍSICA
Un área importante de la biofísica ha sido el estudio de la transmisión de información en forma de impulsos
en las células nerviosas de los organismos. Cada información se transmite en la forma de fenómenos discretos,
llamados potenciales de acción, y está determinada por la frecuencia a la que son transmitidos y por las
conexiones que cada célula establece con sus vecinas. Por ejemplo, el biofísico británico Alan Lloyd Hodgkin
y el físico Andrew Fielding Huxley estudiaron las células nerviosas del calamar, cuyo gran tamaño permite la
colocación de varios electrodos directamente en el interior de las células. Mediante una acertada combinación
de la electroquímica, la electrónica moderna y los modelos matemáticos, fueron capaces de demostrar que el
potencial de acción estaba producido por cambios selectivos en la permeabilidad de la membrana celular al
sodio y al potasio. Desde entonces, se ha aplicado esta técnica con leves modificaciones a otros tejidos
excitables, y en la actualidad constituye la base de todos los intentos de comprender el funcionamiento del
sistema nervioso.
CAMARA DE FOTOS
El tipo de cámara SLR utiliza un solo objetivo, tanto para ver la escena como para hacer la fotografía. Un
espejo situado entre el objetivo y la película refleja la imagen formada por el objetivo a través de un prisma de
cinco caras y la dirige hacia la pantalla de cristal esmerilado que hay en la parte superior de la cámara. En su
momento se abre el disparador y un muelle retira automáticamente el espejo de la trayectoria visual entre la
película y el objetivo. Gracias al prisma, la imagen tomada en la película es casi exacta a la que se ve a través
del objetivo de la cámara, sin ningún error de paralaje. La mayor parte de las SLR son instrumentos de
precisión equipados con obturadores de plano focal. Muchas tienen mecanismos automáticos para el control
de exposición y fotómetros incorporados. La mayoría de las SLR modernas poseen obturadores electrónicos
y, asimismo, la abertura puede manipularse electrónica o manualmente. Cada vez son más los fabricantes de
cámaras que hacen las SLR con enfoque automático, innovación que originariamente era para cámaras de
aficionados. La serie Maxxum de Minolta, la EOS de Canon y la F4 de Nikon, unidad para profesionales,
poseen enfoque automático y son completamente electrónicas. Una unidad central de proceso (CPU) controla
las funciones electrónicas en estas cámaras. La Maxxum 7000i de Minolta utiliza tarjetas de software que
cuando se introducen en el interior de la cámara aumentan las posibilidades de la misma.
GUERRA.
El armamento utilizado en la guerra de Vietnam incluía reactores supersónicos: los MIG−17 y MIG−21
soviéticos se enfrentaron a los F−105 y F−4. Los pilotos estadounidenses afrontaron la nueva e importante
amenaza planteada por los misiles tierra−aire (surface−to−air missiles, SAM) utilizados en la defensa aérea.
La tecnología electrónica les proveyó, sin embargo, de bombas de guía óptica y láser, sistemas para la
9
detección de misiles y la interferencia en radares, además de cohetes aire−aire y aire−tierra. La aviónica (el
uso de la electrónica en los aviones) se constituyó en una rama vital para el desarrollo de la aviación de
guerra moderna. El desarrollo de técnicas para repostar en el aire contribuyó a ampliar el alcance del avión de
combate. Por otro lado, los esfuerzos de los portaaviones fueron bastante inútiles, comparados con su éxito en
la IIGuerra Mundial. Fue en Vietnam donde los helicópteros, utilizados al principio para la observación, el
transporte y la evacuación sanitaria, se convirtieron en una importante arma de combate: el C−47, que durante
la IIGuerra Mundial había servido para el transporte, se convirtió en un helicóptero dotado de artillería pesada.
METEOROLOGÍA.
Los recientes avances producidos en el campo de la electrónica han ido acompañados de un desarrollo
concomitante en el uso de instrumentos meteorológicos electrónicos. Uno de estos instrumentos es el radar
meteorológico, que hace posible la detección de huracanes, tornados y otras tormentas fuertes a distancias de
varios miles de kilómetros. Para tales fines, se usan las ondas de radar reflejadas por las precipitaciones
asociadas con las alteraciones, que sirven para trazar su curso. Otros instrumentos meteorológicos electrónicos
incluyen: el empleado para medir la altura de las nubes y el que se usa para medir el efecto total del humo, la
niebla y otras limitaciones a la visibilidad. Ambos instrumentos suministran importantes mediciones para el
despegue y aterrizaje de los aviones.
NAVEGACIÓN ELECTRÓNICA.
Este método de navegación se basa en el uso de equipos y sistemas en los que las ondas de radio y las técnicas
electrónicas se utilizan para poner en una carta la posición y la ruta de un navío. La ayuda electrónica y la
precisión en la mayoría de los casos han incrementado la seguridad de la navegación suministrando
información importante rápidamente en periodos de baja visibilidad, sobre todo en aguas peligrosas y
congestionadas. El navegante moderno hace hoy gran uso de estos dispositivos, en zonas de practicaje y en
mar abierto. La radio proporciona al navegante información auxiliar, que incluye las señales horarias de radio,
los informes meteorológicos, los anuncios de tormentas y los anuncios de navegación general con respecto a
los riesgos de colisión que suponen barcos abandonados, luces de navegación extinguidas y boyas a la deriva.
La radio como ayuda a la navegación fue utilizada por primera vez a comienzos del siglo XX. Los aviones
fueron equipados en la década de los treinta con instrumentos de comunicaciones para recibir la dirección de
navegación desde la Tierra y tomar la dirección a partir de los transmisores de superficie. La ayuda en la
navegación moderna consiste en indicar la dirección de radio utilizada en una de las siguientes formas: un
avión o barco toma la dirección a partir de transmisores instalados en el suelo y fija su posición relativa a dos
o más transmisores, o toma la dirección mediante estaciones terrestres en una transmisión que desde un avión
o un barco se correlacionan a un centro, lo que establece la posición del aparato
TECNOLOGÍA.
El concepto denominado tecnología apropiada, conveniente o intermedia se acepta como alternativa a los
problemas tecnológicos de las naciones industrializadas y, lo que es más importante, como solución al
problema del desequilibrio social provocado por la transferencia de tecnologías avanzadas a países en vías de
desarrollo. Se dice que el carácter arrollador de la tecnología moderna amenaza a ciertos valores, como la
calidad de vida, la libertad de elección, el sentido humano de la medida y la igualdad de oportunidades ante la
justicia y la creatividad individual. Los defensores de este punto de vista proponen un sistema de valores en el
que las personas reconozcan que los recursos de la Tierra son limitados y que la vida humana debe
reestructurarse alrededor del compromiso de controlar el crecimiento de la industria, el tamaño de las ciudades
y el uso de la energía. La restauración y la renovación de los recursos naturales son los principales objetivos
tecnológicos.
Además se ha argumentado que, como la sociedad moderna ya no vive en la época industrial del siglo XIX y
10
principios del XX (y que la sociedad post−industrial es ya una realidad), las redes complejas posibles gracias
a la electrónica avanzada harán obsoletas las instituciones de los gobiernos nacionalistas, las corporaciones
multinacionales y las ciudades superpobladas.
La tecnología ha sido siempre un medio importante para crear entornos físicos y humanos nuevos. Sólo
durante el siglo XX se hizo necesario preguntar si la tecnología destruiría total o parcialmente la civilización
creada por el ser humano.
ELECTRICIDAD, PUNTO DE VISTA.
La electricidad denota los fenómenos físicos originados por la existencia de cargas eléctricas y por la
interacción de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas
eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en movimiento, produce
además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de la posición y movimiento
relativos de las partículas con carga. En lo que respecta a los efectos eléctricos, estas partículas pueden ser
neutras, positivas o negativas. La electricidad se ocupa de las partículas cargadas positivamente, como los
protones, que se repelen mutuamente, y de las partículas cargadas negativamente, como los electrones, que
también se repelen mutuamente. En cambio, las partículas negativas y positivas se atraen entre sí. Este
comportamiento puede resumirse diciendo que las cargas del mismo signo se repelen y las cargas de distinto
signo se atraen.
ELECTROSTÁTICA
Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos
estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza eléctrica uno
sobre otro. La carga eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos partículas con
cargas q1 y q2 puede calcularse a partir de la ley de Coulomb
según la cual la fuerza es proporcional al producto de las cargas dividido entre el cuadrado de la distancia que
las separa. La constante de proporcionalidad K depende del medio que rodea a las cargas. La ley se llama así
en honor al físico francés Charles de Coulomb.
Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede
representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto. Para
mover otra partícula cargada de un punto a otro del campo hay que realizar trabajo. La cantidad de energía
necesaria para efectuar ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial
entre ambos puntos. Esta magnitud se mide en voltios. La Tierra, un conductor de gran tamaño que puede
suponerse sustancialmente uniforme a efectos eléctricos, suele emplearse como nivel de referencia cero para
la energía potencial. Así, se dice que el potencial de un cuerpo cargado positivamente es de tantos voltios por
encima del potencial de tierra, y el potencial de un cuerpo cargado negativamente es de tantos voltios por
debajo del potencial de tierra.
PROPIEDADES DE LOS MATERIALES ELÉCTRICOS.
El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas sustancias
resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o un trapo de lana, tras
lo cual atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones. Una varilla de vidrio frotada con
seda tiene una capacidad similar para atraer objetos no cargados, y atrae los cuerpos cargados negativamente
con una fuerza aún mayor. El vidrio tiene una carga positiva, que puede describirse como un defecto de
11
electrones o un exceso de protones.
Cuando algunos átomos se combinan para formar sólidos, frecuentemente quedan libres uno o más electrones,
que pueden moverse con facilidad a través del material. En algunos materiales, llamados conductores, ciertos
electrones se liberan fácilmente. Los metales, en particular el cobre y la plata, son buenos conductores.
Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como aislantes, no
conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.
Existe un tercer tipo de materiales en los que un número relativamente pequeño de electrones puede liberarse
de sus átomos de forma que dejan un 'hueco' en el lugar del electrón. El hueco, que representa la ausencia de
un electrón negativo, se comporta como si fuera una unidad de carga positiva. Un campo eléctrico hace que
tanto los electrones negativos como los huecos positivos se desplacen a través del material, con lo que se
produce una corriente eléctrica. Generalmente, un sólido de este tipo, denominado semiconductor, tiene una
resistencia mayor al paso de corriente que un conductor como el cobre, pero menor que un aislante como el
vidrio. Si la mayoría de la corriente es transportada por los electrones negativos, se dice que es un
semiconductor de tipo n. Si la mayoría de la corriente corresponde a los huecos positivos, se dice que es de
tipo p.
Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por su parte,
un aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna sustancia que
presente alguno de estos comportamientos extremos a temperatura ambiente. A esta temperatura, los mejores
conductores ofrecen una resistencia muy baja (pero no nula) al paso de la corriente y los mejores aislantes
ofrecen una resistencia alta (pero no infinita). Sin embargo, la mayoría de los metales pierden toda su
resistencia a temperaturas próximas al cero absoluto; este fenómeno se conoce como superconductividad.
CARGAS ELÉCTRICAS.
El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas eléctricas. En la
figura 1 se muestra el instrumento tal como lo utilizó por primera vez el físico y químico británico Michael
Faraday. El electroscopio está compuesto por dos láminas de metal muy finas (a, a_) colgadas de un soporte
metálico (b) en el interior de un recipiente de vidrio u otro material no conductor (c). Una esfera (d) recoge las
cargas eléctricas del cuerpo cargado que se quiere observar; las cargas, positivas o negativas, pasan a través
del soporte metálico y llegan a ambas láminas. Al ser iguales, las cargas se repelen y las láminas se separan.
La distancia entre éstas depende de la cantidad de carga.
Pueden utilizarse tres métodos para cargar eléctricamente un objeto: 1) contacto con otro objeto de distinto
material (como por ejemplo, ámbar y piel) seguido por separación; 2) contacto con otro cuerpo cargado;
3) inducción.
El efecto de las cargas eléctricas sobre conductores y no conductores se muestra en la figura 2. Un cuerpo
cargado negativamente, A, está situado entre un conductor neutro, B, y un no conductor neutro, C. Los
electrones libres del conductor son repelidos hacia la zona del conductor alejada de A, mientras que las cargas
positivas se ven atraídas hacia la zona próxima. El cuerpo B en su conjunto es atraído hacia A, porque la
atracción de las cargas distintas más próximas entre sí es mayor que la repulsión de las cargas iguales más
separadas (las fuerzas entre las cargas eléctricas son inversamente proporcionales al cuadrado de la distancia
entre las cargas). En el no conductor, C, los electrones no pueden moverse libremente, pero los átomos o
moléculas del mismo se reorientan de forma que sus electrones constituyentes estén lo más lejos posible de A;
el no conductor también es atraído por A, pero en menor medida que el conductor.
El movimiento de los electrones en el conductor B de la figura 2 y la reorientación de los átomos del no
conductor C proporciona a esos cuerpos cargas positivas en los lados más próximos a A y negativas en los
12
lados más distantes de A. Las cargas generadas de esta forma se denominan cargas inducidas.
MEDIDAS ELECTRICAS.
El flujo de carga, o intensidad de corriente, que recorre un cable conductor se mide por el número de
culombios que pasan en un segundo por una sección determinada del cable. Un culombio por segundo
equivale a 1 amperio, unidad de intensidad de corriente eléctrica llamada así en honor al físico francés André
Marie Ampère. Véase el siguiente apartado, Corriente eléctrica.
Cuando una carga de 1 culombio se desplaza a través de una diferencia de potencial de 1 voltio, el trabajo
realizado equivale a 1 julio, unidad llamada así en honor al físico británico James Prescott Joule. Esta
definición facilita la conversión de cantidades mecánicas en eléctricas.
Una unidad de energía muy usada en física atómica es el electronvoltio (eV). Corresponde a la energía
adquirida por un electrón acelerado por una diferencia de potencial de 1 voltio. Esta unidad es muy pequeña y
muchas veces se multiplica por un millón o mil millones, abreviándose el resultado como 1 MeV o 1 GeV.
CORRIENTE ELÉCTRICA.
Si dos cuerpos de carga igual y opuesta se conectan por medio de un conductor metálico, por ejemplo un
cable, las cargas se neutralizan mutuamente. Esta neutralización se lleva a cabo mediante un flujo de
electrones a través del conductor, desde el cuerpo cargado negativamente al cargado positivamente (en
ingeniería eléctrica, se considera por convención que la corriente fluye en sentido opuesto, es decir, de la
carga positiva a la negativa). En cualquier sistema continuo de conductores, los electrones fluyen desde el
punto de menor potencial hasta el punto de mayor potencial. Un sistema de esa clase se denomina circuito
eléctrico. La corriente que circula por un circuito se denomina corriente continua (c.c.) si fluye siempre en el
mismo sentido y corriente alterna (c.a.) si fluye alternativamente en uno u otro sentido.
El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí. La primera es la
diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (fem), tensión o
voltaje. La segunda es la intensidad de corriente. Esta magnitud se mide en amperios; 1 amperio corresponde
al paso de unos 6.250.000.000.000.000.000 electrones por segundo por una sección determinada del circuito.
La tercera magnitud es la resistencia del circuito. Normalmente, todas las sustancias, tanto conductores como
aislantes, ofrecen cierta oposición al flujo de una corriente eléctrica, y esta resistencia limita la corriente. La
unidad empleada para cuantificar la resistencia es el ohmio (
), que se define como la resistencia que limita el flujo de corriente a 1 amperio en un circuito con una fem de 1
voltio. La ley de Ohm, llamada así en honor al físico alemán Georg Simon Ohm, que la descubrió en 1827,
permite relacionar la intensidad con la fuerza electromotriz. Se expresa mediante la ecuación
= I × R, donde
es la fuerza electromotriz en voltios, I es la intensidad en amperios y R es la resistencia en ohmios. A partir de
esta ecuación puede calcularse cualquiera de las tres magnitudes en un circuito dado si se conocen las otras
dos.
Cuando una corriente eléctrica fluye por un cable pueden observarse dos efectos importantes: la temperatura
del cable aumenta y un imán o brújula colocado cerca del cable se desvía, apuntando en dirección
perpendicular al cable. Al circular la corriente, los electrones que la componen colisionan con los átomos del
conductor y ceden energía, que aparece en forma de calor. La cantidad de energía desprendida en un circuito
eléctrico se mide en julios. La potencia consumida se mide en vatios; 1 vatio equivale a 1 julio por segundo.
La potencia P consumida por un circuito determinado puede calcularse a partir de la expresión P =
× I, o la que se obtiene al aplicar a ésta la ley de Ohm: P = I2 × R. También se consume potencia en la
producción de trabajo mecánico, en la emisión de radiación electromagnética como luz u ondas de radio y en
la descomposición química.
13
ELECTROMAGNETISMO.
El movimiento de la aguja de una brújula en las proximidades de un conductor por el que circula una corriente
indica la presencia de un campo magnético alrededor del conductor. Cuando dos conductores paralelos son
recorridos cada uno por una corriente, los conductores se atraen si ambas corrientes fluyen en el mismo
sentido y se repelen cuando fluyen en sentidos opuestos. El campo magnético creado por la corriente que
fluye en una espira de alambre es tal que si se suspende la espira cerca de la Tierra se comporta como un imán
o una brújula, y oscila hasta que la espira forma un ángulo recto con la línea que une los dos polos magnéticos
terrestres.
Puede considerarse que el campo magnético en torno a un conductor rectilíneo por el que fluye una corriente
se extiende desde el conductor igual que las ondas creadas cuando se tira una piedra al agua. Las líneas de
fuerza del campo magnético tienen sentido antihorario cuando se observa el conductor en el mismo sentido en
que se desplazan los electrones. El campo en torno al conductor es estacionario mientras la corriente fluya por
él de forma uniforme.
Cuando un conductor se mueve de forma que atraviesa las líneas de fuerza de un campo magnético, este
campo actúa sobre los electrones libres del conductor desplazándolos y creando una diferencia de potencial y
un flujo de corriente en el mismo. Se produce el mismo efecto si el campo magnético es estacionario y el
cable se mueve que si el campo se mueve y el cable permanece estacionario. Cuando una corriente empieza a
circular por un conductor, se genera un campo magnético que parte del conductor. Este campo atraviesa el
propio conductor e induce en él una corriente en sentido opuesto a la corriente que lo causó (según la llamada
regla de Lenz). En un cable recto este efecto es muy pequeño, pero si el cable se arrolla para formar una
bobina, el efecto se amplía ya que los campos generados por cada espira de la bobina cortan las espiras
vecinas e inducen también una corriente en ellas. El resultado es que cuando se conecta una bobina así a una
fuente de diferencia de potencial, impide el flujo de corriente cuando empieza a aplicarse la diferencia de
potencial. De forma similar, cuando se elimina la diferencia de potencial, el campo magnético se desvanece, y
las líneas de fuerza vuelven a cortar las espiras de la bobina. La corriente inducida en estas circunstancias
tiene el mismo sentido que la corriente original, y la bobina tiende a mantener el flujo de corriente. Debido a
estas propiedades, una bobina se resiste a los cambios en el flujo de corriente, por lo que se dice que posee
inercia eléctrica o autoinducción. Esta inercia tiene poca importancia en circuitos de corriente continua, ya
que no se observa cuando la corriente fluye de forma continuada, pero es muy importante en los circuitos de
corriente alterna.
CONDUCCIÓN EN LÍQUIDOS Y GASES.
Cuando fluye una corriente eléctrica por un conductor metálico, el flujo sólo tiene lugar en un sentido, ya que
la corriente es transportada en su totalidad por los electrones. En cambio en los líquidos y gases, se hace
posible un flujo en dos sentidos debido a la ionización. En una solución líquida, los iones positivos se mueven
en la disolución de los puntos de potencial más alto a los puntos de potencial más bajo; los iones negativos se
mueven en sentido opuesto. De forma similar, en los gases que pueden ser ionizados por radiactividad, por los
rayos ultravioletas de la luz solar, por ondas electromagnéticas o por un campo eléctrico muy intenso se
produce un movimiento de iones en dos sentidos que produce una corriente eléctrica a través del gas.
FUENTES DE FUERZA ELECTROMOTRIZ.
Para producir un flujo de corriente en cualquier circuito eléctrico es necesaria una fuente de fuerza
electromotriz. Las fuentes disponibles son las siguientes: 1) máquinas electrostáticas, que se basan en el
principio de inducir cargas eléctricas por medios mecánicos; 2) máquinas electromagnéticas, en las que se
genera corriente desplazando mecánicamente un conductor a través de un campo o campos magnéticos;
3) células voltaicas, que producen una fuerza electromotriz a través de una acción electroquímica;
4) dispositivos que producen una fuerza electromotriz a través de la acción del calor; 5) dispositivos que
14
generan una fuerza electromotriz por la acción de la luz; 6) dispositivos que producen una fuerza
electromotriz a partir de una presión física, como los cristales piezoeléctricos.
CAMBIOS CULTURALES SEGÚN LA EVOLUCIÓN DE LA TECNOLOGÍA.
La historia del mundo sigue el progreso de la civilización que, alternadamente, se mueve en respuesta a
cambiar tecnologías culturales. El modo de la tecnología imparte algo de su naturaleza a la experiencia
pública. La forma afecta la sustancia, o, como decía McLuhan una vez que esta dicho, " El medio es el
mensaje."
• La civilización I comenzó en un momento en que la escritura ideografica fue introducida. La escritura
ideografica utiliza símbolos escritos a enteras expresas las palabras − una palabra, un símbolo, sin
importar contenido de los sonidos. Si el vocabulario hablado contiene 10.000 palabras, después
10.000 símbolos se deben aprender para dominar el lenguaje escrito.
Que un requisito tan inmenso el aprender restringe el conocimiento de escribir a un grupo de profesionales
entrenados. Los escribanos del templo monopolizaron este arte. El escribir en esta etapa fue utilizado para
preservar conocimiento, contiene expedientes comerciales, no pierde de vista colecciones de impuesto y leyes.
Es decir respondió a las necesidades de las burocracias grandes.
Este tipo de escritura fue tomados de la mano con la formación de los gobiernos imperiales que dependieron
del trabajo de escribanos. El gobierno imperial era la institución en el culminar de la civilización I.
• La civilización II comenzó en un momento en que la escritura alfabética fue introducida. La escritura
alfabética asigna símbolos a los sonidos puros del discurso. Las cartas dispuestas secuencialmente en
el orden de sonidos en una palabra hablada abarcan la palabra escrita. Puesto que 26 cartas pueden
representar los varios sonidos del inglés hablado, una persona tienen aprender solamente 26 símbolos
para aprender cómo escribir − A ", B, C's del niño ". Luego, el "sonar fuera" de una palabra identifica
su significado.
El número reducido de símbolos hace más fácil aprender la escritura. Eso significó que un segmento más
grande de la población podría leer y escribir. Un público de la lectura emergió. La instrucción creciente en
Grecia y otros lugares despertó curiosidad sobre la naturaleza de las palabras.
Las palabras fijadas en un medio sólido tal como el papiro o la piedra se parecía tener una existencia palpable.
Los filósofos pidieron: Qué clase de cosa es ésta? (la respuesta de Platón era: forma.) Las sociedades
abrazaron los ideales la calidad y verdad, que son esencialmente de palabras. Las filosofías éticas tales como
Platón y Aristoteles trabajaron su manera en la ideología de la religión cristiana. La religión del mundo que
emergía eran la institución el culminar de la Civilización II.
• La civilización III comenzó en un momento en que la impresión fue introducida en Europa. La
impresión aumentos la eficacia de copiar los manuscritos escritos. Una placa que contiene líneas del
tipo "escrita" una paginación entera del texto impreso en un solo impresión entintada.
La eficacia creciente de la escritura trajo un volumen grandemente creciente de literatura impresa. También
significó que el mayor cuidado se podría dar a producir el texto sin error; valió el comprobar de un texto con
minuciosidad que sería reproducido muchas veces. Las palabras y los estilos de tipo deletreados podrían ser
estandardizado.
Porque la impresión permitió que un texto fuera reproducido sin fin exactamente de la misma manera, una
podrían ser seguros que las palabras exactas del autor fueron transmitidas a los programas de lectura. Eso
permitió para que los autores individuales atraigan un siguiente entre las personas enamoradas de su estilo de
15
escritura personal. Los autores hicieron los héroes culturales, grapas del coursework de la universidad.
Imprimía también ayudaron a la difusión del conocimiento. Los diarios científicos presentaron argumentos
cuidadosamente expresados a los grupos de programas de lectura interesados. Los boletines de noticias o los
periódicos generales atrajeron a un número total de lectores total que podría ser golpeado ligeramente con
eficacia por los publicistas. Por eso, el comercio encontró una manera de vender sus mercancías con impreso
del literatura. Comercio y la educación era las instituciones el culminar de la civilización
• La civilización IV comenzó en un momento en que la comunicación electrónica fue introducida. Las
tecnologías de la Electrónico−comunicación incluyen un número de dispositivos inventados en los
diecinueveavo y vigésimos siglos que permiten registrar imágenes sensuales tan bien como de las
palabras.
La fotografía era el precursor de este tipo de invención. Entonces vinieron el telégrafo eléctrico, el teléfono, el
fonógrafo, la máquina cinematográfica, la radio, y la televisión. Cada dispositivo tiene su propia capacidad de
preservar audio o las imágenes visuales y la proyección de ellos concluía a grandes distancias o al audiencias
geográficamente dispersadas.
Estos dispositivos de la comunicación crearon una cultura animada de imágenes rápidas, perfeccionadas. El
ejecutante hermoso, rítmico que habitó este dominio hizo un nuevo héroe cultural. Los media electrónicos
permitieron preservar cada expresión facial y cada inflexión de la voz de un cantante.
La celebridad fue llevada de la exposición a las audiencias sobre una etapa extensa. El público hizo los
consumidores de la cultura popular, conocedores de varias clases de ritmos. Productos comerciales
anunciándose en radio o la televisión se convirtió en las marcas rápido−seguro−vendibles. Redes de la
televisión era la institución el culminar de la civilización IV.
• La civilización V ha comenzado con la introducción del ordenador. La informática se parece abrogar
a un tipo más intelectual o, por lo menos, técnico más inclinado de persona que el mundo de la
hospitalidad. Sus utilizadores trabajan a menudo solamente delante de una terminal. Deben tener la
capacidad de pulsar. Los dispositivos son absolutamente variadas.
Todo el esto pueden agregar absolutamente hasta una red de individuos solitarios, inteligente pero social
torpe: gansos y nerviosos. Por otra parte, la actividad del ordenador no permite también muchos flácidos,
TV−tipo "patatas del sofá".
Quizás como los dispositivos del ordenador llegan a ser más pequeños y más móviles y mientras que se
agregan más características del voz−reconocimiento, su uso se convertirá en parte de una forma de vida más
activa y social que estimula más.
16
Descargar