QUÉ ES LA RESISTENCIA ELÉCTRICA Texto e ilustraciones José Antonio E. García Álvarez QUÉ ES LA RESISTENCIA ELÉCTRICA Resistencia eléctrica es toda oposición que encuentra la corriente a su paso por un circuito eléctrico cerrado, atenuando o frenando el libre flujo de circulación de las cargas eléctricas o electrones. Cualquier dispositivo o consumidor conectado a un circuito eléctrico representa en sí una carga, resistencia u obstáculo para la circulación de la corriente eléctrica. A.- Electrones fluyendo por un buen conductor eléctrico, que ofrece baja resistencia. B.- Electrones fluyendo por un mal conductor. eléctrico, que ofrece alta resistencia a su paso. En ese caso los electrones chocan unos contra otros al no poder circular libremente y, como consecuencia, generan calor. Normalmente los electrones tratan de circular por el circuito eléctrico de una forma más o menos organizada, de acuerdo con la resistencia que encuentren a su paso. Mientras menor sea esa resistencia, mayor será el orden existente en el micromundo de los electrones; pero cuando la resistencia es elevada, comienzan a chocar unos con otros y a liberar energía en forma de calor. Esa situación hace que siempre se eleve algo la temperatura del conductor y que, además, adquiera valores más altos en el punto donde los electrones encuentren una mayor resistencia a su paso. QUÉ ES EL OHM El ohm es la unidad de medida de la resistencia que oponen los materiales al paso de la corriente eléctrica y se representa con el símbolo o letra griega " " (omega). La razón por la cual se acordó utilizar esa letra griega en lugar de la “O” del alfabeto latino fue para evitar que se confundiera con el número cero “0”. El ohm se define como la resistencia que ofrece al paso de la corriente eléctrica una columna de mercurio (Hg) de 106,3 cm de alto, con una sección transversal de 1 mm 2, a una temperatura de 0o Celsius. De acuerdo con la “Ley de Ohm”, un ohm ( 1 ) es el valor que posee una resistencia eléctrica cuando al conectarse a un circuito eléctrico de un volt ( 1 V ) de tensión provoca un flujo de corriente de un amper ( 1 A ). La fórmula general de la Ley de Ohm es la siguiente: La resistencia eléctrica, por su parte, se identifica con el símbolo o letra ( R ) y la fórmula para despejar su valor, derivada de la fórmula genral de la Ley de Ohm, es la siguiente:. 1.1 Resistencias Eléctricas Cualquier material natural ofrece oposición al paso de la corriente eléctrica a través de ella. Este efecto se llama resistividad. Los materiales conductores presentan una resistividad casi nula, los aislantes no permiten el flujo de corriente y los resistivos presentan cierta resistencia. Las resistencias son componentes eléctricos pasivos en lo que la tensión que se les aplica es proporcional a la intensidad que circula por ellos. Generalmente la resistencia de un material aumenta cuando crece la temperatura. También la resistencia de conductor es proporcional a la longitud de ésta e inversamente proporcional a su sección. Hay que puntualizar, para que no haya malos entendidos, que a veces llamarlas resistencias se le denominan resistores. La medición en resistencias se hace en ohmios, su símbolo que es este 1.2 Características de la Resistencias Todas las resistencias tienen una tolerancia, esto es el margen de valores que rodean el valor nominal y en el que se encuentra el valor real de la resistencia. Su valor viene determinado por un porcentaje que va desde 0.001% hasta 20% el más utilizada es el de 10% . Esta tolerancia viene marcada por un código de colores. La resistencias tienen un coeficiente de temperatura, este valor dependerá de la temperatura que alcance la resistencia cuando empiece a circular el flujo de electrones. Como cualquier elemento eléctrico y electrónico tiene un rango de trabajo y por tanto un límite de funcionamiento que vendrá determinado por su capacidad de disipar calor, la tensión y por su temperatura máxima; por tanto será la temperatura máxima con la cual podrá trabajar sin deteriorarse. Tiene también un coeficiente de tensión que limitará el paso del corriente eléctrica entre sus dos extremos que será la variación relativa de cambio de tensión al que se someta. Un factor también importante es el ruido que se debe a los cambios repentinos de aumento y disminución de corrientes continuos. La capacidad de la resistencia es la capacidad de mantener enel transcurso del tiempo el valor nominal de la resistencia será sometido a los cambios ambientales, largos periodos del funcionamiento que no deberá afectarla para nada. Los materiales empleados para la fabricación de las resistencias son muy variados pero los más comunes son aleaciones de cobre, níquel y zinc en diversas proporciones de cada uno lo que hará variar la resistividad. Quien determinará un aumento de esta resistividad será el níquel, ya que si la aleación lleva porcentaje anto de éste, la resistencia tendrá gran resistividad. Las aleaciones de cobre níquel y níquel-hierro tiene una resistividad de 10 a 30 veces mayor que el cobre y las aleaciones de níquel-cromo serán de 60 a 70 veces mayor que las de cobre y con un gran comportamiento en temperaturas elevadas. También se puede utilizar el carbono ya que su resistividad entre 400 y 2.400 veces la del cobre, por este motivo se utiliza en las escobillas de los motores eléctricos. Codigo de colores para resistencias Las resistencias de precisión se caracterizan por tener cinco bandas en lugar de las tradicionales cuatro . Las aplicaciones más tradicionales de estos componentes son los Instrumentos de Medición, Máquinas Herramienta y Electromedicina, entre otros . Las bandas se distribuyen de la siguiente manera y los valores asignados a cada banda corresponden según la siguiente tabla y gráfica: Tipos de resistencia Superconductividad INTRODUCCIÓN Superconductividad, fenómeno que presentan algunos conductores que no ofrecen resistencia al flujo de corriente eléctrica. Los superconductores también presentan un acusado diamagnetismo, es decir, son repelidos por los campos magnéticos. La superconductividad sólo se manifiesta por debajo de una determinada temperatura crítica Tc y un campo magnético crítico Hc, que dependen del material utilizado. Antes de 1986, el valor más elevado de Tc que se conocía era de 23,2 K (-249,95 °C), en determinados compuestos de niobio-germanio. Para alcanzar temperaturas tan bajas se empleaba helio líquido, un refrigerante caro y poco eficaz. La necesidad de temperaturas tan reducidas limita mucho la eficiencia global de una máquina con elementos superconductores, por lo que no se consideraba práctico el funcionamiento a gran escala de estas máquinas. Sin embargo, en 1986, los descubrimientos llevados a cabo en varias universidades y centros de investigación comenzaron a cambiar radicalmente la situación. Se descubrió que algunos compuestos cerámicos de óxidos metálicos que contenían lantánidos eran superconductores a temperaturas suficientemente elevadas como para poder usar nitrógeno líquido como refrigerante. Como el nitrógeno líquido, cuya temperatura es de 77 K (-196 °C), enfría con una eficacia 20 veces mayor que el helio líquido y un precio 10 veces menor, muchas aplicaciones potenciales empezaron a parecer económicamente viables. En 1987 se reveló que la fórmula de uno de estos compuestos superconductores, con una Tc de 94 K (-179 °C), era (Y0,6Ba0,4)2CuO4. Desde entonces se ha demostrado que los lantánidos no son un componente esencial, ya que en 1988 se descubrió un óxido de cobre y taliobario-calcio con una Tc de 125 K (-148 °C). HISTORIA La superconductividad fue descubierta en 1911 por el físico holandés Heike Kamerlingh Onnes, que observó que el mercurio no presentaba resistencia eléctrica por debajo de 4,2 K (-269 °C). El fenómeno no se empezó a entender hasta que, en 1933, los alemanes Karl W. Meissner y R. Ochsenfeld detectaron un acusado diamagnetismo en un superconductor. Sin embargo, los principios físicos de la superconductividad no se comprendieron hasta 1957, cuando los físicos estadounidenses John Bardeen, Leon N. Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce como teoría BCS por las iniciales de sus apellidos, y por la que sus autores recibieron el Premio Nóbel de Física en 1972. La teoría BCS describe la superconductividad como un fenómeno cuántico, en el que los electrones de conducción se desplazan en pares, que no muestran resistencia eléctrica. Esta teoría explicaba satisfactoriamente la superconducción a altas temperaturas en los metales, pero no en los materiales cerámicos. En 1962, el físico británico Brian Josephson estudió la naturaleza cuántica de la superconductividad y predijo la existencia de oscilaciones en la corriente eléctrica que fluye a través de dos superconductores separados por una delgada capa aislante en un campo eléctrico o magnético. Este fenómeno, conocido como efecto Josephson, fue posteriormente confirmado experimentalmente. APLICACIONES Por su ausencia de resistencia, los superconductores se han utilizado para fabricar electroimanes que generan campos magnéticos intensos sin pérdidas de energía. Los imanes superconductores se han utilizado en estudios de materiales y en la construcción de potentes aceleradores de partículas. Aprovechando los efectos cuánticos de la superconductividad se han desarrollado dispositivos que miden la corriente eléctrica, la tensión y el campo magnético con una sensibilidad sin precedentes. Tren de magnética velocidad. levitación de alta El descubrimiento de mejores compuestos semiconductores es un paso significativo hacia una gama mayor de aplicaciones, entre ellas computadoras más rápidas y con mayor capacidad de memoria, reactores de fusión nuclear en los que el plasma se mantenga confinado por campos magnéticos, trenes de levitación magnética de alta velocidad y, tal vez lo más importante, una generación y transmisión más eficiente de la energía eléctrica. El Premio Nóbel de Física de 1987 se concedió al físico alemán J. Georg Bednorz y al físico suizo K. Alex Mueller por su trabajo sobre la superconductividad a altas temperaturas. Maglev: cómo funcionan los trenes de levitación magnética No hay muchas líneas funcionando en la actualidad, pero los trenes de levitación magnética, de aspecto futurista, están llamados a jugar un papel importante en el transporte urbano. El término ‘maglev’ procede de abreviar la expresión ‘magnetic levitation’ y designa a un tipo de transporte que no tiene contacto con ninguna superficie, pues está sustentado en un campo de gravitación magnética, que sirve también para propulsar el vehículo. Actualmente existen algunos de estos trenes repartidas por el mundo y están previstos nuevos proyectos. Uno de los más impresionantes será la línea comercial entre las ciudades japonesas de Tokio y Nagoya, que se espera que circule a 500 kilómetros por hora. El maglev que recorrerá el trayecto entre Tokio y Nagoya está proyectado para 2027. En esta fecha comenzará a operar a una velocidad que reducirá la conexión entre las dos ciudades a una hora y siete minutos, cuando hoy en día se tarda dos horas y media. También está previsto que el tren de levitación magnética se alargue hasta Osaka, un poco más distante que Nagoya. Ya han tenido lugar pruebas públicas con el vehículo, si bien la construcción de las infraestructuras es un proceso más largo que la implantación de vías convencionales. La tecnología de levitación magnética se caracteriza por prescindir del contacto físico entre el tren y la vía por la que circula. La fricción sólo se produce con el aire, por lo que se minimiza al máximo, una ventaja que se trata de mejorar dotando a los transportes de la forma más aerodinámica posible. La suspensión en el aire se alcanza mediante un juego de fuerzas magnéticas, en el que el tren se mueve sobre un raíl de acero gracias a los electroimanes que tiene adosados en la parte inferior. El método se denomina suspensión electromagnética y requiere que el tren siempre se encuentre a la misma distancia del raíl, aproximadamente unos 15 milímetros, para evitar desestabilizar el campo gravitatorio, una incidencia que previenen los sistemas de control electrónico. Los maglev que circulan a bajas velocidades pueden utilizar otra tecnología, llamada suspensión electrodinámica, que se basa en las fuerzas de atracción y repulsión que generan tanto el vehículo como los raíles. La velocidad y el sigilo de los maglev Actualmente el récord de velocidad en un tren de levitación magnética es de 581 kilómetros por hora, en una prueba realizada en Japón durante 2003. La línea de circula comercialmente en Shanghái supera los 400 km/h en velocidades punta. Estos niveles han hecho que algunos vean a esta tecnología como futura competidora del transporte aéreo, aunque generalmente se habla de alternativa a los trenes convencionales. Los maglev pueden viajar a altas velocidades durante más tiempo que un tren convencional, siendo capaces de acelerar y decelerar más rápido. Y lo hacen de forma silenciosa. Una de las ventajas de este transporte para las ciudades es el poco ruido que hace, al evitar la fricción con las vías. También son más fáciles de mantener porque sólo es necesario tener a punto la electrónica, mientras que en un ferrocarril de hoy en día hay que cuidar la mecánica. Los raíles de un maglev Sin embargo, requieren infraestructuras totalmente nuevas. No sirven las de los trenes convencionales y las instalaciones son caras. El consumo energético, una vez que el vehículo está circulando, también es alto, aunque la mayor parte de la energía se emplea para vencer la resistencia del aire y no para la suspensión. Esto hace que no sean aptos para el transporte de mercancías, ya que pesarían demasiado. Simbología en electrónica Conductor eléctrico Son materiales cuya resistencia al paso de la electricidad es muy baja. Los mejores conductores eléctricos son metales, como el cobre, el oro, el hierro y el aluminio, y sus aleaciones, aunque existen otros materiales no metálicos que también poseen la propiedad de conducir la electricidad, como el grafito o las disoluciones y soluciones salinas(por ejemplo, el agua de mar) o cualquier material en estado de plasma. Para el transporte de energía eléctrica, así como para cualquier instalación de uso doméstico o industrial, el mejor conductor es el cobre (en forma de cables de uno o varios hilos). Aunque la plata es el mejor conductor, pero debido a su precio elevado no se usa con tanta frecuencia. También se puede usar el aluminio, metal que si bien tiene una conductividad eléctrica del orden del 60% de la del cobre, es sin embargo un material tres veces más ligero, por lo que su empleo está más indicado en líneas aéreas que en la transmisión de energía eléctrica en las redes de alta tensión.1 A diferencia de lo que mucha gente cree, el oroes levemente peor conductor que el cobre; sin embargo, se utiliza en bornes de baterías y conectores eléctricos debido a su durabilidad y “resistencia” a la corrosión. La conductividad eléctrica del cobre puro fue adoptada por la Comisión Electrotécnica Internacional en 1913 como la referencia estándar para esta magnitud, estableciendo el International Annealed Copper Standard (Estándar Internacional del Cobre Recocido) o IACS. Según esta definición, la conductividad del cobre recocido medida a 20 °C es igual a 58.0 MS/m.2 A este valor es a lo que se llama 100% IACS y la conductividad del resto de los materiales se expresa como un cierto porcentaje de IACS. La mayoría de los metales tienen valores de conductividad inferiores a 100% IACS pero existen excepciones como la plata o los cobres especiales de muy alta conductividad designados C-103 y C-110.3 ¿Cómo se produce el cobre chileno? Conoce todo sobre la producción de nuestro principal recurso minero: el cobre. ¿Quién lo extrae? ¿con qué máquinas? ¿cuáles son los procesos de producción? Entérate acá. Probablemente sepas que Chile es el máximo productor mundial de cobre, con alrededor del 35% de la producción planetaria. También habrás oído hablar de la mina de Chuquicamata o te sonará también el nombre de Codelco. Pero… ¿cuánto sabes realmente de los procesos necesarios para que desde las minas se extraiga el cobre y podamos finalmente ocuparlo y exportarlo a otros países? El principal encargado de explorar, extraer, refinar y vender el material, es la Corporación Nacional del cobre (Codelco). Esta empresa es 100% estatal, es decir, es propiedad de todos los chilenos. Así, podemos decir que cada uno de nosotros es dueño de una pequeña parte de Codelco. Además, muchas empresas privadas explotan el material, siendo la más relevante Minera Escondida. Máximas reservas mundiales de cobre Chile tiene las mayores reservas de cobre en el mundo (alrededor del 30% del cobre mundial está en nuestro país, según la "USGS Mineral Resources Program", el programa de reservas mineras de Estados Unidos - ver recuadro-), las cuales están repartidas en varios lugares del territorio. Codelco se organiza en divisiones, encargadas de explotar yacimientos, procesar los minerales y obtener finalmente el metal y sus subproductos para enviarlos a todo el mundo. Codelco tiene actualmente cinco divisiones: Codelco Norte, División Salvador, División Ventanas, División Andina y División El Teniente. Camiones y maquinaria pesada Como te imaginarás, la tarea de producir cobre no es para nada sencilla. Casi 20 mil hombres y mujeres trabajan día a día en las cinco divisiones de Codelco. Y para ello necesitan de la más alta tecnología. Quizás una de las imágenes que más rápido se nos vienen a la cabeza al hablar de la minería del cobre son los camiones, que llegan a ser realmente gigantes, alcanzando a medir 13 metros de largo, 8 de ancho y 8 de alto. Semejante tamaño hace que puedan cargar alrededor de 300 toneladas cada uno. Para que te hagas una idea, un elefante africano pesa 6 toneladas, es decir, un camión minero puede cargar el peso de unos 50 paquidermos. Los camiones mineros no tienen cuatro ruedas, sino seis, y cada neumático mide alrededor de 3,5 metros, es decir, el doble de un adulto promedio. Estos camiones además consumen alrededor de 3100 litros por día, o sea, lo que un automóvil corriente gastaría en casi dos años. En un turno de 8 horas en la mina de Chuquicamata se movilizan 70 camiones desde el fondo hasta la superficie, recorrido que realizan en casi una hora. Estos camiones transportan diariamente 600.000 toneladas. Algo así como cargar el cerro Santa Lucía una vez y media al día. Otros elementos de gran tamaño son las palas electromecánicas. Ellas son las encargadas de sacar el mineral desde la mina. Además, tienen por función dar forma a los yacimientos, tratando de hacer diseños seguros para evitar derrumbes, aumentando la seguridad y la productividad. A pesar de su tremendo tamaño y peso, (24 metros de altura y más de mil toneladas, respectivamente) las palas electromecánicas son operadas por una sola persona. Pueden cargar hasta 100 toneladas, por lo que con tres “paladas” se puede llenar un camión entero. Muchas otras máquinas extrañas trabajan en las minas: molinos para moler el cobre, hornos para fundirlo, y toda una serie de artefactos que ni siquiera te imaginas. Paso a paso Tantos años produciendo grandes cantidades de cobre han otorgado una especialización importante. Todo tiene un sentido lógico y los pasos se tienen que ir desarrollando uno por uno, sin saltarse ninguno, para así, seguir produciendo día a día toneladas y toneladas del mineral. A continuación te mostramos todos los procesos productivos que se realizan en una mina de cobre: Exploración geológica: es la primera etapa, y sin ella, ninguna otra etapa posterior tendría sentido. Aquí, se identifica que hay un yacimiento con mineral suficiente para ser trabajado, se determinan sus características y se establece la forma de explotarlo. Extracción, carguío y transporte: teniendo claro que existe un yacimiento, se decide comenzar a trabajar en él. Las rocas y los minerales adecuados se extraen de la mina y son transportadas a la planta donde continúan los demás procesos de producción. Chancado: Es la etapa en la que grandes máquinas reducen el tamaño del material extraído en la mina a porciones cada vez más pequeñas y compactas, de no más de 1,5 pulgadas. Dicho material se ordena apilándolo. Hasta aquí no hay diferencias, sin embargo, de aquí en más, existen diferentes procesos productivos, dependiendo si el cobre se encontró en la naturaleza combinado con oxígeno (oxidado) o azufre (sulfurado). Generalmente en los yacimientos, el cobre oxidado se encuentra más superficialmente. Reservas mundiales de cobre Lugar Reservas mundiales de cobre (en millones de toneladas) País Porcentaje de la producción mundial (aprox). 1 Chile 160 30% 2 Perú 63 12% 3 México 38 7% 4 Estados Unidos 35 6% 5 Indonesia 31 6% 6 China 30 6% 7 Polonia 26 5% 8 Australia 24 5% 9 Rusia 20 4% 10 Zambia 19 3% Microprocesadores que valen oro: El kilo de chatarra electrónica aumentó 50% en un año Muchas de las PC que ya no usamos y no sabemos dónde ubicar, valen más de lo que imaginamos. Las antiguas computadoras contienen en sus componentes (microprocesadores, mainboard, tarjetas PCI) metales preciosos como oro y plata, y en las demás partes se encuentran otros metales como el cobre y el aluminio, que podrían ser reciclados industrialmente. De hecho, en Uruguay el precio del kilo de microprocesadores como chatarra electrónica creció un 50% en el último año, pasando de $ 1.000 a $ 1.500 por kilo, según las cotizaciones que publica el sitio de Cempre. Pero seguimos sin una ley que regule sobre el tema, a pesar de que existe un proyecto que ya lleva varios años en el Parlamento. Sólo el Plan Ceibal genera unas 250 toneladas anuales de desechos electrónicos. Y si tomamos en cuenta que la penetración de la computadora indica que ya hay al menos una PC (de escritorio o portátil) en el 75% de los hogares uruguayos. Un estudio publicado por el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) (Recycling – from Ewaste to Resources) señala el valor monetario que se pierde por falta de un reciclaje efectivo de residuos electrónicos. Según este informe, el 15% de la producción mundial de cobalto, 13% de la producción de paladio así como 3% de la extracción de oro y plata son procesados cada año en computadoras y celulares. En 2008, los componentes de oro, plata, cobre, paladio y cobalto procesados en las computadoras vendidas tenían un valor de US$ 3.700 millones. Tampoco es abundante la oferta de lugares para depositar componentes de PC, aunque desde hace un año existe una interesante aplicación web llamada Dónde Reciclo, que permite encontrar rápidamente los contenedores de vidrio, plástico, pilas y metales de tu barrio, gracias a una herramienta de geolocalización y al uso de datos abiertos que ubica tu celular y tu computadora y automáticamente te devuelve un mapa con los puntos de reciclaje más cercanos. La iniciativa pertenece a la organización Data Uy. Algo es algo. Hasta ahora hemos considerado los circuitos con un solo receptor, pero lo cierto es que es más común encontrar varios receptores en el mismo circuito. Cuando se instalan varios receptores, éstos pueden ser montados de diferentes maneras: En serie En paralelo Mixtos Circuitos en serie En un circuito en serie los receptores están instalados uno a continuación de otro en la línea eléctrica, de tal forma que la corriente que atraviesa el primero de ellos será la misma que la que atraviesa el último. Para instalar un nuevo elemento en serie en un circuito tendremos que cortar el cable y cada uno de los terminales generados conectarlos al receptor. Circuito en paralelo En un circuito en paralelo cada receptor conectado a la fuente de alimentación lo está de forma independiente al resto; cada uno tiene su propia línea, aunque haya parte de esa línea que sea común a todos. Para conectar un nuevo receptor en paralelo, añadiremos una nueva línea conectada a los terminales de las líneas que ya hay en el circuito. Caída de tensión en un receptor Aparece un concepto nuevo ligado a la tensión. Cuando tenemos más de un receptor conectado en serie en un circuito, si medimos los voltios en los extremos de cada uno de los receptores podemos ver que la medida no es la misma si aquellos tienen resistencias diferentes. La medida de los voltios en los extremos de cada receptor la llamamos caída de tensión. La corriente en los circuitos serie y paralelo Una manera muy rápida de distinguir un circuito en seria de otro en paralelo consiste en imaginala circulación de los electrones a través de uno de los receptores: si para regresen a la pila atravesando el receptor, los electrones tienen que atravesar otro receptor, el circuito está en serie; si los electrones llegan atravesando sólo el receptor seleccionado, el circuito está en paralelo. Pulsa sobre los circuitos de abajo para ver el movimiento de los electrones Características de los circuitos serie y paralelo Serie Paralelo Resistencia Aumenta al incorporar receptores Disminuye al incorporar receptores Caida de tensión Cada receptor tiene la suya, que aumenta con su resistencia. La suma de todas las caídas es igual a la tensión de la pila. Es la misma para cada uno de los receptores, e igual a la de la fuente. Es la misma en todos los receptores e igual a la general en el circuito. Intensidad Cuantos más receptores, menor será la corriente que circule. Cada receptor es atravesado por una corriente independiente, menor cuanto mayor resistencia. La intensidad total es la suma de las intensidades individuales. Será, pues, mayor cuanto más receptores tengamos en el circuito. Cálculos Estructura básica del circuito Los circuitos simples constan de una fuente de alimentación, tal como una batería, y un conductor, como el cobre o el alambre de plata. Cada extremo del conductor está conectado a uno de los terminales de la batería. Cuando el circuito está activo, los electrones fluyan libremente a través del circuito. Resistencia Para la mayoría de los sistemas eléctricos, es importante controlar el flujo de corriente. Los científicos usan materiales naturales, llamados resistores, para desacelerar el flujo de la corriente. La cantidad de corriente que fluye a través del sistema eléctrico depende de la colocación de estos resistores, que es diferente para los dos circuitos. Circuitos en serie En los circuitos en serie, los resistores están conectados juntos en una línea entre los dos extremos de la fuente de alimentación. La corriente fluye a través de cada resistor, uno tras otro, porque no tiene otros caminos a seguir. Cada resistor reduce la cantidad de corriente que pasa a través del circuito para que la corriente mensurable sea mucho menor que en un circuito que tiene un solo resistor. Circuitos en paralelo Estos circuitos parecen autopistas de aterrizamiento múltiple, al tener varias vías alineadas paralelas entre sí. Cada vía tiene su propio resistor. A medida que la corriente fluye a través de este circuito, la corriente se divide, enviando parte de ésta a través de cada una de las vías. Aunque las resistencias controlan el flujo de corriente a través de cada vía, el circuito tiene más corriente que un sistema con una sola vía y un solo resistor. LA HISTORIA DE SONY: LA EMPRESA QUE INVADIÓ AL MUNDO PARA PERDERLO “Estados Unidos está siendo asaltado y te digo esto: no vamos a tener un Estados Unidos en diez años si las cosas siguen así. Tenemos que ponerles impuestos y tenemos que proteger nuestra nación. Nadie lo está haciendo”. Eran los finales de los ochenta y Donald Trump, el exitoso empresario estadounidense, arremetía en televisión pública contra la invasión de los productos japoneses en su país. El conflicto, a largo plazo, podía a afectar a miles de personas, incluso a los que no tenían nada que ver con él. Pronto las empresas japonesas empezaron a comprar empresas estadounidenses, y el mundo de la tecnología comenzó a girar en torno a lo que saliera del Lejano Oriente. Había una empresa en especial que ―casi como pasa con Apple hoy― estaba en la mira de todos: Sony. Pasando las páginas de la historia, nos encontramos con que, hoy, la empresa pionera de los ochentas y noventas ya no es ni la mitad de lo que era. Sus dispositivos (a excepción del PlayStation) ni siquiera le generan suficientes ingresos; y la explicación no es que al mercado japonés le ganaron la guerra. En abril de 2012. Sony Corp marcó un nuevo récord de 6,4 mil millones de dólares en pérdidas (más o menos 11,4 billones de pesos colombianos). Sony, si me permiten la analogía, se está haciendo un tradicional harakiri lento y doloroso, que le ha durado desde finales de los noventas hasta hoy, que cumple 77 años. Ya tiene la espada bien adentro. Parte I: El Trinitron y las malas decisiones trinitron Casi todas las personas han tenido un televisor Trinitron de Sony en casa: el equipo pesadísimo en el que muchos colombianos vieron el 5–0 de Colombia contra Argentina en 1993. Aunque la televisión fue inventada mucho antes de la llegada del Trinitron en los sesentas, la ‘caja mágica’ de Sony fue la primera que se distribuyó con éxito en el mercado internacional. En la época en la que fue lanzado, el Trinitron tenía la mejor calidad de imagen en el mercado. La marca, desde su nacimiento, iba un paso más adelante de toda su competencia, porque además vendía a precios muy asequibles. Trinitron era sinónimo de estabilidad económica, tanto para quien la compraba como para la empresa que la estaba ofreciendo. Esto fue posible porque el cofundador de Sony, Masaru Ibuka, fue (según quienes lo conocieron) uno de los ingenieros más brillantes que ha pisado la Tierra. La filosofía de Ibuka era: “El primer y más importante motivo por el que fundamos esta compañía era crear un medio ambiente de trabajo estable, donde ingenieros que tengan una apreciación profunda por la tecnología puedan realizar su trabajo y misión de acuerdo con los dictados de su corazón”. La empresa nunca fue famosa por ser pionera con las ideas. Todas las mejores tecnologías de Sony fueron mejoras que el equipo de Ibuka desarrolló para otros productos que ya existían. A la izquierda Morita y a la derecha Ibuka. A la izquierda Morita y a la derecha Ibuka. El otro cofundador de la empresa, Akio Morita, era un empresario salvaje y carismático que fue ’el rostro’ de la empresa. Al mismo tiempo, era a quien constantemente se le ocurrían ideas sobre cómo mejorar lo que ya existía. De la misma manera que Microsoft tuvo a Bill Gates y Apple a Steve Jobs, Sony mucho tiempo se sostuvo sobre los hombros del polémico Morita, que muchas veces se manifestó contra la manera en la que funciona el mercado estadounidense. Trinitron vivió una larga vida, hasta que ocurrió lo que se esperaba que ocurriera con la llegada de las tecnologías Plasma y LCD. Las pantallas planas reemplazaron los armatostes enormes que Sony dejó de fabricar en 2006 y de distribuir en 2008. Por su parte, llegó tarde a las nuevas tecnologías de televisión y con productos muy caros. Sony no comprendió hacia dónde se estaba dirigiendo la tecnología en la última década. Desde 2000, con la llegada de BlackBerry, las empresas empezaron a sacar productos que integraban muchas funcionalidades en un solo dispositivo. La empresa fue intransigente. Sacó televisores con capacidades limitadas que no ofrecían muchas opciones adicionales a los usuarios. Mientras tanto la competencia (como Samsung y LG) comprendió que los televisores, como todos los productos de hoy, deben ofrecer más servicios que solo buena calidad de imagen. En lugar de entregar un solo producto con miles de funcionalidades, Sony saturó el mercado con miles de productos con una funcionalidad cada uno. Las empresas que ofrecen demasiada variedad de productos generan mucha desconfianza en los clientes, según tres estudios citados por Gizmodo. Los usuarios reconocen las marcas porque estas son fáciles de recordar e identificar con una serie de productos que conservan una identidad (Microsoft con Windows, Apple con su ‘i’ – iPad, iPhone–, etc.). Al perder su producto más importante, Sony perdió su rostro. No supo cómo reconstruir la imagen de la empresa, que se encontraba esparcida en una lista interminable de cámaras, celulares, computadores, consolas y televisores que nunca trascendieron. Además, muchos de ellos fueron intentos desatinados, que hoy solo se recuerdan en listas como la de los 50 dispositivos más inútiles de la década pasada (según Gizmodo). Más de la mitad de estos gadgets fueron de la empresa japonesa. Parte II: El Walkman, Discman y Apple Walkman La historia de la música portátil empezó con el sueño de poder cargar un radio de transistores para todas partes. El equipo era ya casi portátil porque funcionaba con pilas, pero era demasiado grande para ser cargado con facilidad. Morita comprendió bien esto, y para solucionarlo aplicó una solución muy ingeniosa: ordenó fabricar camisas con bolsillos más grandes para que los vendedores pudieran cargar el radio con facilidad y hacerlo parecer portátil. Puede que Sony no se haya inventado el radio de transistores, pero si se inventó la portabilidad. El radio ‘portátil’ de Sony empezó a traer buenos resultados. Morita sabía que si quería seguir innovando y haciendo productos que la gente comprara, el camino era la portabilidad. Con la llegada del casete, la empresa empezó a fabricar dispositivos que los reproducían. Eran grabadoras grandes, que se podían cargar de un lado para otro de la misma manera que el radio. Cuenta la revista Times, en un texto sobre historia del Walkman, que Morita cargaba un reproductor de casetes de Sony en sus viajes de negocios, y un día se bajó del avión con la idea de hacer de la música portátil una experiencia privada. Ibuka se quedó con la idea en la cabeza, se la llevó a su equipo de ingenieros y así nació la primera idea original de Sony: El 1 de julio de 1979, la empresa le mostró al mundo el Walkman. Como las mejores invenciones de la modernidad, el producto era una gran mezcla de muchas otras ideas: el casete, los audífonos y la portabilidad. Era un dispositivo azul, con botones grandes. Sony predijo que apenas 5.000 de ellos se iban a a vender en Japón después del lanzamiento, pero ese número se multiplicó por 10. Era la primera vez en la historia en la que todo el mundo podía ir por la calle escuchando lo que quisiera, sin interrumpir y molestar a nadie. Muchas empresas (como Aiwa y Philips) empezaron a imitar el producto, pero Sony volvió a mandar la parada. La empresa fue agregándole funciones a su dispositivo: radio, el botón que mejoraba los bajos (el Bass Boost) o un rebobinador para el cassette. Incluso llegaron a sacar un Walkman que se cargaba con el sol. Los ochentas fueron los años del Walkman. El dispositivo invadió todos los mercados del mundo, incluyendo el estadounidense. Sony estaba creciendo tanto y tan rápido que empezó a comprar empresas norteamericanas, lo que despertó la ira santa de Donald Trump en televisión. Sony se hizo con Columbia Pictures, una importante productora de cine de Hollywood, y para Estados Unidos eso era imperdonable: significaba, según ellos, que Japón ahora iba a tener el dominio sobre la cultura norteamericana. El escándalo tocó la fibra de Estados Unidos y dejó de ser un tema solo de negocios. Algunos medios dicen que los japoneses estaban jugando sucio en ese entonces: mientras sus empresas estaban invadiendo a todo el mundo, no dejaban que productos extranjeros se vendieran en su país sin un impuesto gigante. Otros afirman que más allá de que eso sea cierto o no, el crecimiento de la industria japonesa no se explica así. Aunque los productos extranjeros no se vendieran en Japón, este era solo un país. Empresas como Sony vendían en todo el mundo, no solo en Estados Unidos. Algunos discursos ya rayaban con lo absurdo: decían que los nipones estaban vengándose por lo sucedido en la Segunda Guerra Mundial. Las compras japonesas de empresas gringas, según este argumento, eran parte de una invasión. En este video podemos ver un poco de la controversia En realidad se desconocen las razones por las que Sony compró Columbia. Es decir: en términos de negocio tuvo mucho sentido, porque Sony estaba entrando en el negocio de la música y eso se complementaría muy bien con el cine. Pero si lo hubiera hecho solo con fines lucrativos, lo mejor no hubiera sido comprar una empresa tan cara como Columbia Pictures. Hay rumores que dicen que la compra vino de una excentricidad de Morita. Dicen que el empresario simplemente quería tener una gran productora de cine. El caso es que esa decisión, al final, costó mucho más que los 3.400 millones de dólares que pagó Sony por Columbia. Sony compró tantas empresas tan rápido que no hubo una manera de integrarlas. Había partes de la empresa que trabajaban juntas en el desarrollo de productos, pero que ni siquiera se conocían entre ellas. A Sony le costó mucho trabajo conservar la unidad de su multinacional, sencillamente porque todo estaba regado por todas partes. Luego llegaron los noventas, y los discos compactos rápidamente empezaron a reemplazar los vinilos. Eran más baratos, más fáciles de producir y los reproductores, con el tiempo, se hicieron mucho más económicos. Sony y Phillips unieron fuerzas para desarrollar el primer Discman. Casi de la misma manera y con el mismo éxito que el Walkman, esta tecnología reinó en los noventas. Todos tenían o un Discman o un Walkman en sus manos. La venta de discos se disparó sin precedentes, cosa que Sony celebraba al ser dueño de una de las productoras de música más importantes. Pero con el cambio de siglo llegó Apple. Los reproductores de MP3 ya estaban pidiendo pista de aterrizaje, pues ofrecían más beneficios a los usuarios por precios más bajos. El 23 de octubre de 2001, Steve Jobs le mostró al mundo el iPod, y de nuevo la industria de la música cambió para siempre. El iPod no solo reemplazó los Walkman y Discman, sino que obligó a los usuarios a cambiar de mentalidad. Los discos físicos dejaron de ser tan importantes, pues miles de archivos MP3 (que además se podían descargar por Napster) cabían en dispositivos del tamaño de la palma de la mano. Era demasiado para pelear. Sony estaba perdiendo plata por todos los flancos por culpa de Apple; y como ya sabemos, no lo manejó de la mejor manera. Ninguna empresa lo hizo en ese momento (recordemos el Zune de Microsoft y los teléfonos de BlackBerry). La respuesta de Sony fue impulsar productos que, más allá de su creatividad y usabilidad (como el Mini Disc), probaron que no eran los adecuados para pelear contra el iPod: costaban más y eran menos eficientes. Parte III: La Arrogancia de PlayStation El último dispositivo con el Sony conquistó al mundo fue el PlayStation. Desde 1988 la empresa ya estaba tentada con la idea de entrar en el mundo de los videojuegos, y para hacerlo buscó una alianza con quien entonces era el rey solitario de ese mundo: Nintendo. La idea era sacar una consola que reprodujera unos discos especiales desarrollados por Sony que permitían correr juegos con gráficas 3D en tiempo real. Sony alcanzó a fabricar 200 prototipos de estas consolas, que no solo reproducirían discos sino también cartuchos. Al final, el proyecto se cayó por unos problemas de licencias. Sony reformo sus planes y decidió sacar su propia consola, que funcionaría solo con CD. En 1994 la consola fue lanzada, y en seis meses en el mercado ya había alcanzado 1 millón de ventas en todo el mundo. ¿Qué hizo a PlayStation una de las consolas más importantes de la historia? Una selección de títulos exclusivos que combinaban tecnologías que no habían sido implementadas hasta la fecha, controles con un sistema de vibraciones que ayudaban a hacer la experiencia más envolvente y, por encima de todo, una de las mejores campañas publicitarias que se han visto. Con el slogan ‘ur not ready’ (ustedes no están listos) y una presentación sin precedentes en el E3, Sony Computer Entertainment hizo de su consola un éxito absoluto. Sony fue la primera empresa que les dio mucha importancia a los títulos exclusivos de las empresas, lo que hizo que los usuarios empezaran a generar un fanatismo visceral con una empresa o la otra por los títulos que ofrecía. Lo siguiente fue el PlayStation 2. Una consola diseñada por Sony y Toshiba que leía DVDs y era capaz de llevar las experiencias al siguiente nivel. Sony seguía con la exclusividad en los títulos más importantes del mercado y sin una verdadera competencia, lo que le permitía seguir en la punta de la carrera por la mejor industria. Los gamers eran fieles a Sony por los títulos exclusivos que ofrecía. El PlayStation 2 fue la consola más vendida en su momento con 153,68 millones de equipos vendidos en total según VGChartz y un total de 1.638,25 millones de juegos vendidos. Los juegos exclusivos de Sony fueron, uno tras otro, juegos del año según los medios especializados. La empresa estaba en un trono solitario, lo más arriba posible, pero ese éxito terminó convirtiéndose en la última puñalada del harakiri que hace tiempo ya se había hecho Sony. La frase que podría resumir la manera en la que Sony lidio con su éxito fue la que dijo el actual director creativo de Sony Computer Entertainment cuando se preparaban para el lanzamiento el PlayStation 3: “La siguiente generación de consolas empezará cuando nosotros lo digamos”. La Arrogancia con A mayúscula de Sony era tan notoria que incluso incomodaba en un mundo como el empresarial, en el que reina la arrogancia. PlayStation creía que tenía su trono en el paraíso tan asegurado que creía que podía sacar su tercera consola en un precio astronómico con juegos carísimos, y que todos la iban a comprar. Resulta que no. Microsoft aprovechó el ‘papayazo’ de Sony para que el Xbox 360 se hiciera con un lugar en la competencia. PlayStation perdió la exclusividad de muchos juegos, porque cada vez hacer juegos es una apuesta más riesgosa. Hoy, en vísperas del lanzamiento de la cuarta consola, el panorama ya no está tan claro. Muchas empresas están entrando pisar en el medio de los videojuegos. Valve demostró con Steam que los gamers están dispuestos a pagar por juegos sin necesidad de usar una consola, Microsoft parece querer hacer mucho más que una consola con su nuevo Xbox. Muchos grandes empresarios están de acuerdo que la verdadera competencia de las empresas de videojuegos ya no es ni Sony ni Microsoft, ni Valve. Es Apple. Epílogo La manzana, gústenos o no, fue verdugo de las compañías que estaban conquistando el mundo de la tecnología; pero también hay que decir que ninguna en su momento se supo poner ‘las pilas’. El mercado avanza junto a la tecnología, cambia según la tecnología que se imponga. El que no se adapta rápidamente muere. Es así de fácil. Sony está en medio de un plan de revivir su compañía, llamado One Sony. Los principales objetivos de esta iniciativa son dirigir el crecimiento de sus principales negocios electrónicos, dar un nuevo rumbo a la categoría de los televisores y acelerar la innovación que les permita crear nuevos dominios del negocio. El harakiri que la empresa se hizo no ha acabado. Todavía no se ve la punta de la espada saliendo al otro lado. Sony sigue dando ‘patadas de ahogado’ para salvarse en un mercado que hoy está más competido que nunca. En este momento la empresa ni siquiera está ganando plata de por sus productos electrónicos: su mayor negocio hoy es vender seguros de vida. Leer los artículos y realizar resumen en hojas de examen.