CAPÍTULO II MARCO TEÓRICO CAPÍTULO II MARCO TEÓRICO Para lograr abordar los fundamentos teóricos, en este capitulo se exponen los antecedentes de la investigación; así como también las definiciones y las características mas resaltantes de las variables objeto de estudio, de manera de explicar las particularidades de cada una de ellas y establecer los criterios necesarios que contribuyan al desarrollo de la investigación. Además, se define los términos básicos que amplían la panorámica del entorno y condiciones en las que se desarrolla la misma; finamente se realiza el análisis de las variables para realizar la definición nominal, conceptual y operacional de ellas, y de esta manera permitir identificar el alcance de su medición. 1. ANTECEDENTES DE LA INVESTIGACIÓN. Gallegos (2012), en su investigación “Control Lógico Difuso del péndulo invertido”. El objetivo del presente proyecto de tesis es desarrollar el algoritmo de control de un sistema no lineal muy conocido en el ámbito de control llamado “El péndulo invertido”. Se emplea un microcontrolador el cual será programado mediante algoritmos de lógica difusa. El desarrollo del proyecto presenta una aplicación específica del uso de microcontroladores 13 14 en la automatización de procesos con una técnica avanzada de control, como lo es la lógica difusa. El trabajo muestra una breve descripción sobre la teoría de la lógica difusa, es decir; sus orígenes, fundamentos, reglas, ventajas y desventajas. Asimismo se detalla el proceso para formular las funciones de pertenencia, como se evalúan dichas funciones, el resultado de los grados de pertenencia. Además se muestran los resultados al aplicar diferentes funciones de membresía al péndulo invertido. El caso de estudio está basado en el péndulo invertido de la marca Quanser Consulting, mediante el cual con el presente trabajo de Tesis se sientan las bases para proyectos futuros basados en lógica difusa. Por ello este proyecto ayuda a entender un poco más acerca de la aplicación de lógica difusa como sistema de control. Por su parte, Contreras (2011) realizó un trabajo de grado titulado “Diseño e Implementación de un sistema de control difuso de agua temperada de uso doméstico”. El presente trabajo está orientado principalmente al área de Ingeniería de Control. El tema central consiste en diseñar e implementar un controlador de agua temperada enfocado al uso doméstico. Como parte introductoria, el documento contiene información acerca de productos o soluciones similares existentes en el mercado así como la problemática que los usuarios presentan con estos mismos. A lo largo del documento, se expone información técnica sobre el desarrollo de un controlador difuso, basado en microcontroladores, elaborado con componentes electrónicos y circuitos integrados del mercado peruano. 15 Además se presenta información relacionada al modelamiento del controlador difuso, así como también muestra el diseño de circuitos para una etapa de censado y potencia las cuales son las encargadas de monitorear y controlar, respectivamente, el proceso de calentamiento del agua. Por último, se presentan las simulaciones y pruebas del diseño propuesto para comprobar su correcto funcionamiento. El trabajo desarrollado en esta tesis pretende ofrecer una solución que se ajuste, de la mejor manera posible, con las necesidades de los usuarios para lograr resolver y mejorar los problemas existentes en los sistemas actuales. Esta investigación aporta las técnicas y conocimientos necesarios para el desarrollo de un controlador difuso, tanto a nivel de sus componentes físicos y diseños como de los patrones lógicos necesarios para lograr el control y monitoreo en los sistemas de potencia y funcionamiento en sistemas de calentamiento de una variable física, punto importante para el proyecto; además de cooperar con simulaciones y pruebas de diseño para evaluar su funcionamiento. Por otro lado, Robles (2011) realizó una investigación denominada “Control del punto de máxima potencia de un panel solar fotovoltaico, utilizando lógica difusa”. En el presente trabajo de investigación se realiza un diseño, basado en lógica difusa, que permite hacer el control del punto de máxima potencia de un panel solar. De esta forma se logra maximizar la energía lumínica captada por el panel solar alcanzando a mejorar la eficiencia del sistema para condiciones definidas de irradiación solar y 16 temperatura de operación. Se utiliza Matlab/Simulink para simular el comportamiento del panel solar y del convertidor DC-DC reductor. El controlador es diseñado teniendo como entradas la pendiente de potencia y el cambio de pendiente y como salida el incremento del ciclo útil del convertidor. Se definen funciones de membresía triangulares para las entradas y la salida, con 5 variables lingüísticas y 25 reglas difusas las cuales son editadas utilizando el toolbox de lógica difusa de Matlab. Se realizan pruebas a lazo cerrado para condiciones de irradiación y temperatura variables con lo que se logra que el panel solar opere siempre en el punto de máxima potencia con una alta eficiencia y eliminando los problemas de oscilación presentes en los controladores tradicionales como el de perturbación y observación. Con los resultados obtenidos se comprueba la efectividad de la lógica difusa para sistemas no lineales como es el caso de un panel solar fotovoltaico. La investigación es del tipo factible y se apoya en un diseño de campo documental. El instrumento utilizado para la validación de los diseños es la simulación. Esta tesis de grado sirve de guía en la comprensión a favor de la efectividad de los de controladores difusos en sistemas en donde la variable a manejar no es lineal. Además, de evaluar los patrones de lógica difusa utilizados para este sistema y del uso de simuladores como método de validación de los procesos de temperatura y control difuso, motivo importante para esta investigación. 17 Así mismo, Sánchez (2011) realizó una tesis de grado denominada “Aplicación de la lógica difusa para evaluación de una estrategia de innovación en el negocio de los fertilizantes orgánicos”. El presente estudio pretende evaluar por medio de lógica difusa, el impacto que tendría en el negocio de los fertilizantes desarrollar una estrategia innovadora, enfocada en el desarrollo de nuevos productos, además de la implementación de una nueva estructura comercial y conceptual del negocio que permita ofrecer al mercado un producto con características técnicas, precio y servicio, generando una ventaja competitiva con respecto a los competidores y sustitutos del mismo mercado. El trabajo inicia presentando una estrategia innovadora a nivel productivo y comercial, continuando con una validación de dicha estrategia por medio de los empresarios pertenecientes al sector y finalizando con la evaluación de los resultados por medio de conjuntos difusos del tipo integral Mamdani. Los estudios e investigaciones aplicadas a la industria de los fertilizantes orgánicos se han aplicado principalmente a la solución de un problema de manejo de sólidos y solo se ha estudiado la generación de valor desde el punto de vista técnico (compostaje, humus, enriquecimiento en composición, entre otros), sin enfocar los estudios a la estructura del negocio que es lo que se desea resolver en este trabajo. El aporte más significativo que brinda este trabajo de grado es en el hecho de utilizarlo como pieza fundamental para el desarrollo de las bases teóricas y profundizar unas de las variables de la investigación como lo es el 18 sistema de control difuso, motivo por el cual es de gran interés para la mejora teórica del proyecto, principalmente porque ayudará lograr un excelente análisis de los problemas que se presenten y exhibir a su vez la medida que mejor se adapte a la solución de mismo. Por su parte, Berlanga (2010) en su investigación "Aprendizaje de sistemas basados en reglas difusas compactos y precisos con programación genética". Describe que actualmente se ha incrementado de forma paralela tanto la cantidad de información almacenada como la necesidad de desarrollar algoritmos que permitan extraer conocimiento útil de la misma de forma automática. Estos algoritmos se incluyen dentro del área de extracción de conocimiento en bases de datos (KDD, Knowledge Discovery in Databases). La extracción de conocimiento se puede abordar, en función del problema a resolver, desde dos perspectivas distintas: desde el punto de vista predictivo, como un proceso de inducción predictiva que intenta obtener conocimiento que permita pronosticar el comportamiento futuro según los datos disponibles, o desde el punto de vista descriptivo, cuyo objetivo fundamental es descubrir conocimiento de interés dentro de los datos, intentando obtener información que describa el modelo que existe detrás de los datos. La inducción predictiva se realiza bajo enfoques como la clasificación, la regresión o el análisis de series temporales. La clasificación es un tipo de inducción predictiva en la que los datos son objetos caracterizados por atributos que pertenecen a diferentes clases 19 definidas, y el objetivo es inducir un modelo (un Clasificador o Sistema de Clasificación) capaz de predecir la clase a la cual pertenece un nuevo objeto dado los valores de sus atributos. En determinados problemas de clasificación tales como el diagnóstico de enfermedades o el reconocimiento de rasgos faciales, entre otros, interviene información compleja, incompleta, imprecisa o con incertidumbre, que los expertos humanos procesan de forma robusta, pero que es difícil representar y procesar en un Sistema de Clasificación. Para diseñar un esquema de clasificación robusto y con un rendimiento e interpretabilidad altos, es conveniente el uso de una herramienta para tratar con este tipo de información presente en la mayoría de los procesos de clasificación: la Lógica Difusa. La teoría de conjuntos difusos permite manejar imprecisión y tratar el conocimiento humano de una forma sistemática. En el campo de la clasificación, el papel fundamental de los conjuntos difusos es hacer transparentes los esquemas de clasificación que utilizan normalmente los seres humanos a través del desarrollo de un marco formal implementable en un ordenador. Si a la utilización de la Lógica Difusa en un Sistema de Clasificación unimos el diseño de un sistema basado en reglas, entonces obtendremos un Sistema de Clasificación Basado en Reglas Difusas (SCBRD), el cual está formado por un conjunto de modelos simples locales, verbalmente interpretables y con un rango de aplicación muy amplio. Los SCBRDs 20 permiten la incorporación en el modelo de toda la información disponible, tanto de la que proviene de expertos humanos que expresan su conocimiento sobre el sistema en lenguaje natural, como de la que tiene su origen en medidas empíricas y modelos matemáticos. En definitiva, el uso de la Lógica Difusa hace posible el tratamiento de información con incertidumbre, muy común en problemas reales de clasificación, y proporciona el procesamiento de forma eficaz de la información experta disponible. Por otra parte, las reglas difusas permiten representar el conocimiento de una forma comprensible para los usuarios del sistema. En el proceso de extracción de conocimiento existen distintas tareas o problemas que se pueden enfocar y resolver como problemas de optimización y búsqueda. Los Algoritmos Evolutivos (AEs), entre los que se encuentran los Algoritmos Genéticos y la Programación Genética (PG), imitan los principios de la evolución natural para formar procedimientos de búsqueda y optimización global, lo que les convierte en herramientas especialmente adecuadas para resolver problemas presentes en las distintas etapas del proceso de descubrimiento de conocimiento. En el diseño de un SCBRD preciso, compacto e interpretable es muy importante la definición adecuada de la semántica de los conjuntos difusos asociados a las etiquetas lingüísticas. El aprendizaje de forma simultánea tanto de la base de reglas como de la partición difusa puede permitir extraer un SCBRD con mejor comportamiento. Para este aprendizaje conjunto de 21 dos partes de un problema muy dependientes, los Algoritmos Coevolutivos son herramientas muy adecuadas puesto que permiten evolucionar de forma independiente ambas partes del problema. El objetivo de esta tesis es estudiar el aprendizaje de SCBRDs en problemas que presentan una alta dimensionalidad (con respecto al número de variables de entrada), y desarrollar nuevos algoritmos basados en el uso de la PG y de los Algoritmos Coevolutivos para la extracción de conocimiento en forma de reglas difusas que presenten un alto nivel de compacticidad y precisión en problemas con una alta dimensionalidad, y es allí el aporte fundamental para la investigación. Por último, Murillo (2009) efectuó una tesis de grado titulada “Diseño e implantación de un Sistema PID para el control de la temperatura del extrusor de una máquina procesadora de plástico”. El proyecto se desarrolló con base a la necesidad de creación e implantación de un sistema de control de temperaturas para las máquinas procesadoras de plástico de Teleplastic C.A., que ofreciera mayor precisión en el control de temperatura y reducción del consumo de energía en las máquinas. El objetivo general, estuvo dirigido, hacia el diseño e implantación de un sistema PID (proporcional, integral y derivado) para el control de temperatura, que ofreciera mayor precisión y reducción de los costos del consumo de energía de las máquinas que procesan plástico en la Empresa Teleplastic C.A. 22 Por las características, el tipo de investigación es descriptiva y exploratoria que conlleva a un diseño de campo y bibliográfico. Se efectuaron pruebas y posteriormente la aplicación de sistema directamente en el área industrial de la Empresa Teleplastic C.A. Quedo confirmado con la realización de este proyecto, que es posible desarrollar sistemas creados con tecnología nacional. El principal aporte de este proyecto investigativo es el de contribuir en los conocimientos de alcanzar el mayor provecho a un sistema de control de temperaturas para maquinas agregando una alta precisión, así como también poder contrastar el control lineal (PID) con el de lógica difusa en este especial ámbito de la temperatura. 2. BASES TEÓRICAS. En esta sección se pretende desarrollar el contenido teórico en el cual se fundamentan las definiciones de cada de una de las variables de esta investigación, para así lograr un mejor análisis del problema presentado, y poder presentar la medida que mejor se adapte a la solución del mismo. 2.1. SISTEMA. Según Oppenheim (1998, p. 37) un sistema se puede ver con cualquier proceso que produce una transformación de señales. Entonces, un sistema tiene una señal de entrada y una señal de salida la cual esta relacionada con la entrada a través de la transformación del sistema. Por ejemplo, un sistema 23 de sonido de alta fidelidad toma una señal de audio grabada y genera una reproducción de esa señal. Si el sistema es de alta fidelidad tiene controles de tono, puede cambiar las características del sistema, esto es, la calidad tonal de la señal reproducida, mediante el ajuste de los controles. Un automóvil también se puede ver como un sistema en el que la entrada es la presión sobre el pedal del acelerador y la salida es el movimiento del vehículo. Un sistema de mejoramiento de imagen transforma una imagen de entrada en una imagen de salida que tiene algunas propiedades deseadas, tal como una mejora en el contraste. 2.1.1. CLASIFICACIÓN. Estando interesados en dos (2) tipos de sistemas, serían los de tiempo continuo y tiempo discreto. Los de tiempo continuo es aquel en el que las señales de entrada de tiempo continuo son transformadas en señales de salidas de tiempo continuo. Tales sistemas serian representados de forma gráfica como la mostrada en la figura 1. En este sistema X(t) es la entrada y Y(t) la salida. X(t) Sistemas de tiempo continuo Y(t) Figura 1. Sistema de Tiempo Continúo. Fuente: Oppenheim (1998, p. 38). De forma similar, un sistema de tiempo discreto, esto es, uno que transforma entradas de tiempo discreto en salidas de tiempo discreto, el cual 24 sería representado en forma gráfica como se muestra en la figura 2. En este sistema X(n) es la entrada y Y(n) la salida. X(n) Sistemas de tiempo discreto Y(n) Figura 2. Sistema de Tiempo Discreto. Fuente: Oppenheim (1998, p. 38). 2.2. SISTEMA AUTOMÁTICO. Roldán (2005) define el sistema automático está fundamentado en el control y ejecución de acciones de forma automático, sin la intervención del operador o con el mínimo de intervención. 2.2.1. SISTEMA DE CONTROL. Ogata (1998, p. 1) plantea que el control automático ha desempeñado una función vital en el avance de la ingeniería y la ciencia. Además de su extrema importancia en los sistemas de vehículos espaciales, de guiado de misiles, robóticos y similares; el control automático se ha vuelto una parte importante e integral de los procesos modernos industriales y de manufactura. Por ejemplo, el control automático es esencial en el control numérico de las máquinas-herramienta de las industrias de manufactura, en el diseño de sistemas de pilotos automáticos en la industria aeroespacial, y en el diseño de automóviles y camiones en la industria automotriz. También es esencial en las operaciones industriales como el control de presión, 25 temperatura, humedad, viscosidad y flujo en las industrias de proceso. Debido a que los avances en la teoría y la práctica del control automático aportan los medios para obtener un desempeño óptimo de los sistemas dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones manuales repetitivas y rutinarias, así como de otras actividades, casi todos los ingenieros y científicos deben tener un buen conocimiento de este campo. 2.2.1.1. SISTEMA LINEAL. Fernández (2007) define sistema lineal como todo sistema en que el régimen dinámico viene definido por una ecuación diferencial lineal es decir tienen el mismo tipo de respuesta en tiempo y a la señal armónica, solo varían magnitudes de los parámetros característicos, dado que estos depende de los coeficientes de le ecuación diferencial. 2.2.1.2. SISTEMA NO LINEAL. Ogata (1998) plantea que si no se aplica el principio de superposición. Por tanto, para un sistema no lineal la respuesta a dos entradas no puede calcularse tratando cada entrada a la vez y sumando resultados. a. LÓGICA DIFUSA. Recientemente, la cantidad y variedad de aplicaciones de la lógica difusa han crecido considerablemente. La lógica difusa es una lógica alternativa a la lógica clásica que pretende introducir un grado de vaguedad en las cosas 26 que evalúa. En el mundo en que se vive existe mucho conocimiento ambiguo e impreciso por naturaleza. El razonamiento humano con frecuencia actúa con este tipo de información. La lógica difusa fue diseñada precisamente para imitar el comportamiento del ser humano. La lógica difusa se inició en 1965 por Lotfi A. Zadeh, profesor de la Universidad de California en Berkeley. Surgió como una herramienta importante para el control de sistemas y procesos industriales complejos, así como también para la electrónica de entretenimiento y hogar, sistemas de diagnóstico y otros sistemas expertos. El profesor Zadeh manifestó que la lógica difusa trata de copiar la forma en que los humanos toman decisiones. Lo curioso es que, aunque baraja información imprecisa, esta lógica es en cierto modo muy precisa: se puede aparcar un coche en muy poco espacio sin darle al de atrás. Suena a paradoja, pero es así. Por tal motivo, la lógica difusa en comparación con la lógica convencional permite trabajar con información que no es exacta para poder definir evaluaciones convencionales, contrario con la lógica tradicional que permite trabajar con información definida y precisa. A. FUNCIONAMIENTO. Correa (2003) redacta que los sistemas de lógica difusa permiten dilucidar y materializar las relaciones implícitas entre conjuntos de datos de entrada y salida, de manera sistemática y racional, mediante un proceso inductivo de 27 acumulación de conocimiento, lo cual corresponde a la adquisición de experiencia. Esto es gracia a que estos sistemas pueden ser construidos por mediante tablas con datos de entrada y salida medido o esperados, generando mapas funcionales o modelos lineales o no líneas que reproducen el patrón de desempeño de las entrada y salidas. B. TEORÍA DE LOS CONJUNTOS DIFUSOS. La lógica difusa permite tratar con información que no es exacta o con un alto grado de imprecisión a diferencia de la lógica convencional la cual trabaja con información precisa. El principal problema surge de la poca capacidad de expresión de la lógica clásica, es decir, de la limitada lista de opciones o acciones que puede surgir de la lógica convencional. B.1. CONJUNTOS CLÁSICOS. Los conjuntos clásicos surgen por la necesidad del ser humano de clasificar objetos y conceptos. Estos conjuntos pueden definirse como un conjunto bien definido de elementos o mediante una función de pertenencia μ que toma valores de 0 ó 1 de un universo en discurso para todos los elementos que pueden o no pertenecer al conjunto. Un conjunto clásico se puede definir con la función de pertenencia mostrada en la ecuación: (1) 28 B.2. CONJUNTOS DIFUSOS. La necesidad de trabajar con conjuntos difusos surge del hecho que existen conceptos que no tienen límites claros. Un conjunto difuso se encuentra asociado por un valor lingüístico que está definido por una palabra, etiqueta lingüística o adjetivo. En los conjuntos difusos la función de pertenencia puede tomar valores del intervalo entre 0 y 1, yla transición del valor entre cero y uno es gradual y no cambia de manera instantánea como pasa con los conjuntos clásicos. Un conjunto difuso en un universo en discurso puede definirse como lo muestra la ecuación: (2) Donde μA(x) es la función de pertenecía de la variable x, y U es el universo en discurso. Cuando mas cerca este la pertenencia del conjunto A al valor de 1, mayor será la pertenencia de la variable x al conjunto A, como se muestra en la figura 3. Figura 3. Conjuntos Difusos. Fuente: Correa (2003). 29 C. FUNCIONES DE PERTENENCIA. Aun cuando cualquier función puede ser válida para definir un conjunto difuso, existen ciertas funciones que son más comúnmente utilizadas por su simplicidad matemática, entre éstas se encuentran las funciones de tipo triangular y trapezoidal (mostrados en la siguiente figura 4 y 5, respectivamente), gaussiana, entre otras. Figura 4. Función de transferencia para conjunto difuso triangular. Fuente: Correa (2003). Figura 5. Función de transferencia para conjunto difuso trapezoidal. Fuente: Correa (2003). D. CONTROLADOR DIFUSO. Carrabina (1993) presenta que un controlador difuso puede ser aplicado a todo tipo de proceso, es especialmente adecuado en aquellos sistemas en 30 los que su conocimiento es poco claro e impreciso ya que permite conseguir evaluaciones subjetivas representadas en el lenguaje ordinario empleado por los seres humanos. El se fundamenta sobre una base de conocimiento o de reglas, en las cuales las premisas y consecuencias son variables lingüísticas. La estructura de un controlador difuso se muestra en la figura 6. Figura 6. Estructura de un Modelo Difuso Clásico. Fuente: Carrabina (1993). Cabe destacar que existen varios tipos de sistemas difusos dependiendo del tipo de regla que se utilice para elaboración del controlador, y en base a esto cambia su programación. Es por ello que se puede distinguir en base a los más usados en dos tipos: uno denominado tipo Mamdani el cual consta del fusificador, del mecanismo de inferencia y defusificación; y el otro denominado tipo TakagiSugeno que consta solo del fusificador y sistema de inferencia, en el cual se establecen las salidas de las reglas en base a funciones que no necesitarán del defusificador para que el controlador cumple la función a seguir. 31 Sin embargo, estando interesados en la elaboración de un controlador difuso tipo Mamdani, también llamado como el clásico, por ser el más usado en los sistemas difusos, solo se detallarán las partes necesarias en la que consta este tipo de controlador, las cuales son las siguientes: D.1. FUSIFICACIÓN. La fusificación tiene como objetivo convertir valores crisp o valores reales en valores difusos. En la fusificación se asignan grados de pertenencia a cada una de las variables de entrada con relación a los conjuntos difusos previamente definidos utilizando las funciones de pertenencia asociadas a los conjuntos difusos. D.2. BASE DE CONOCIMIENTO. La base de conocimiento contiene el conocimiento asociado con el dominio de la aplicación y los objetivos del control. En esta etapa se deben definir las reglas lingüísticas de control que realizarán la toma de decisiones que decidirán la forma en la que debe actuar el sistema. D.3. INFERENCIA. La inferencia relaciona los conjuntos difusos de entrada y salida para representar las reglas que definirán el sistema. En la inferencia se utiliza la información de la base de conocimiento para generar reglas mediante el uso de condiciones, por ejemplo: si caso1 y caso2, entonces acción1, y así respectivamente según la cantidad de casos y acciones a emplear. 32 D.4. DEFUSIFICACIÓN. El proceso inverso llamado defusificación transforma un conjunto difuso, es decir, un conjunto de variables lingüísticas con sus respectivos grados de pertenencia, en un número real. La defusificacion realiza el proceso de evaluar los valores difusos generados en la inferencia en valores crisp, que posteriormente se utilizarán en el proceso de control. En la defusificación se utilizan métodos matemáticos simples como el método centroide, método de promedio ponderado y método de membresía del medio máximo. El método más común es asimilarlo al centro de gravedad de la combinación de cada una de las reglas inferidas. Además se usa el criterio máximo, que escoge el punto donde la función inferida tiene su máximo o el criterio de la media de los máximos. 2.2.2. SISTEMA DE CONTROL A LAZO ABIERTO. Ogata (1998, p. 1) plantea que el control automático ha desempeñado una función vital en el avance de la ingeniería y la ciencia. Además de su extrema importancia en los sistemas de vehículos espaciales, de guiado de misiles, robóticos y similares; el control automático se ha vuelto una parte importante e integral de los procesos modernos industriales y de manufactura. Por ejemplo, el control automático es esencial en el control numérico de las máquinas-herramienta de las industrias de manufactura, en el diseño de 33 sistemas de pilotos automáticos en la industria aeroespacial, y en el diseño de automóviles y camiones en la industria automotriz. También es esencial en las operaciones industriales como el control de presión, temperatura, humedad, viscosidad y flujo en las industrias de proceso. Debido a que los avances en la teoría y la práctica del control automático aportan los medios para obtener un desempeño óptimo de los sistemas dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones manuales repetitivas y rutinarias, así como de otras actividades, casi todos los ingenieros y científicos deben tener un buen conocimiento de este campo. 2.2.3. SISTEMA DE CONTROL A LAZO CERRADO. Para Ogata (1998, p. 6) un sistema que mantiene una relación prescrita entre la salida y la entrada de referencia, comparándolas y usando la diferencia como medio de control, se denomina sistema de control realimentado. En un sistema de control en lazo cerrado, se alimenta al controlador la señal de error de actuación, que es la diferencia entre la señal de entrada y la señal de realimentación (que puede ser la señal de salida misma o una función de la señal de salida y sus derivadas y/o integrales), a fin de reducir el error y llevar la salida del sistema a un valor conveniente. El término control en lazo cerrado siempre implica el uso de una acción de control realimentado para reducir el error del sistema. Un ejemplo sería el sistema de control de temperatura de una habitación. Midiendo la 34 temperatura real y comparándola con la temperatura de referencia (la temperatura deseada), el termostato activa o desactiva el equipo de calefacción o de enfriamiento para asegurar que la temperatura de la habitación se conserve en un nivel cómodo sin considerar las condiciones externas. 2.3. TEMPERATURA. Del latín temperatūra, para referirse a una combinación en el cielo. La temperatura es una magnitud física que refleja la cantidad de calor, ya sea de un cuerpo, de un objeto o del ambiente. Dicha magnitud está vinculada a la noción de frío (menor temperatura) y caliente (mayor temperatura). La temperatura está relacionada con la energía interior de los sistemas termodinámicos, de acuerdo al movimiento de sus partículas, y cuantifica la actividad de las moléculas de la materia: a mayor energía sensible, más temperatura. Igualmente, la temperatura según Day y Carpi (2003), en un modelo corpuscular de la materia, la temperatura de un cuerpo puede asociarse al nivel de agitación de sus partículas. Es decir, un cuerpo tiene mayor temperatura cuando es mayor la velocidad con que se mueven sus partículas. Esta situación, es decir, la mayor agitación, provoca una mayor cantidad de choques entre las partículas y con mayor liberación de energía (calor). Del mismo modo, es mayor la cantidad de choques con las paredes del recipiente, de tal forma que al tocarlo se percibe “caliente”. 35 Ahora bien, en el caso de cuerpos sólidos, la temperatura sigue estando ligada al movimiento de sus partículas, sólo que en este caso el movimiento es más restringido. Al aumentar la temperatura de un sólido, aumenta la amplitud con que vibran u oscilan sus partículas, aumentando así su velocidad y su energía cinética. Así mismo, la temperatura de un cuerpo, indica el nivel de energía cinética promedio de las partículas de un cuerpo o porción de sustancia. Del mismo modo, expresa Valderrama (1998), La temperatura se puede considerar como una manifestación del estado energético de las moléculas de una sustancia y que se percibe como "sensación de frío o de calor". Si un cuerpo caliente (C) se pone en contacto con un cuerpo frío (F), se transferirá energía del bloque más caliente al más frío hasta que las temperaturas de ambos cuerpos se igualen. Dando lugar a la Ley Cero de la Termodinámica donde el mismo autor define: "Cuando dos cuerpos tienen la misma temperatura que un tercer cuerpo, entonces esos tres cuerpos tienen igualdad de temperatura" similar a lo visto en matemáticas en que "dos cantidades iguales a una tercera son iguales entre sí". 2.3.1. LEY CERO DE TERMODINÁMICA. La ley cero, conocida con el nombre de la ley del equilibrio térmico fue enunciada en un principio por Maxwel y llevada a ley por Fowler y dice: “Dos sistemas en equilibrio térmico con un tercero, están en equilibrio térmico 36 entre sí”. Medín (2006). El equilibrio térmico debe entenderse como el estado en el cual los sistemas equilibrados tienen la misma temperatura. Esta ley es de gran importancia porque permitió definir a la temperatura como una propiedad termodinámica y no en función de las propiedades de una sustancia. La aplicación de la ley cero constituye un método para medir la temperatura de cualquier sistema escogiendo una propiedad del mismo que varíe con la temperatura con suficiente rapidez y que sea de fácil medición, llamada propiedad termométrica. En el mismo contexto, en el termómetro de vidrio esta propiedad es la altura alcanzada por el mercurio en el capilar de vidrio debido a la expansión térmica que sufre el mercurio por efecto de la temperatura. Cuando se alcanza el equilibrio térmico, ambos sistemas tienen la misma temperatura. Ahora bien, si dos partes de un sistema entran en contacto térmico es probable que ocurran cambios en las propiedades de ambas. Estos cambios se deben a la transferencia de calor entre las partes. Para que un sistema esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio neto de calor entre sus partes, además ninguna de las propiedades que dependen de la temperatura debe variar. Una definición de temperatura según Medín (2006), se puede obtener de la Ley cero de la termodinámica, que establece que si dos sistemas A y B están en equilibrio térmico, con un tercer sistema C, entonces los sistemas A y B estarán en equilibrio térmico entre sí. Este es un hecho empírico más 37 que un resultado teórico. Ya que tanto los sistemas A, B, y C están todos en equilibrio térmico, es razonable decir que comparten un valor común de alguna propiedad física. Se llama a esta propiedad temperatura. Sin embargo, para que esta definición sea útil es necesario desarrollar un instrumento capaz de dar un significado cuantitativo a la noción cualitativa de ésa propiedad, por lo que a lo largo de la historia se han hecho numerosos intentos, sin embargo en la actualidad predominan el sistema inventado por Celsius en 1742 y el inventado por lord Kelvin en 1848. 2.3.2. SEGUNDA LEY DE LA TERMODINÁMICA. La segunda ley de la termodinámica, según Çengel (2009), expone que es una generalización de la experiencia, es una exposición cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno de los cuales hacen destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre sí. Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de compensación). Por experiencia se sabe que cuando dos cuerpos se encuentran en contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La dirección se puede invertir solamente por medio de gasto de un trabajo. 38 Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. De esta manera es como según diferentes autores explican la segunda ley de la termodinámica, teniendo en cuenta que todos los enunciados son semejantes y que su principio es básicamente el mismo. 2.3.3. UNIDADES. Las escalas de medición de la temperatura se dividen fundamentalmente en dos tipos, las relativas y las absolutas. Para Valenzuela (2009), los valores que puede adoptar la temperatura en cualquier escala de medición, no tienen un nivel máximo, sino un nivel mínimo: el cero absoluto. Mientras que las escalas absolutas se basan en el cero absoluto, las relativas tienen otras formas de definirse. Como escalas relativas de temperatura, se incluyen: escala Celsius, escala Fahrenheit escala, Réaumur, escala Leiden, escala Newton (en desuso), escala Roemer (en desuso), escala Delisle (en desuso) unidades de temperatura. 2.3.3.1. CONVERSIÓN DE TEMPERATURAS. Para medir la temperatura según Caballero (2012), es muy común que se utilice la escala Celsius, es decir, que se mida la temperatura en grados Celsius o centígrados, la cual está basada en el punto de fusión del hielo (la 39 temperatura que tiene el agua cuando se está descongelando), la cual es de 0°C y el punto de ebullición del agua (cuando el agua pasa de líquido a gas), que es de 100°C. Estos fueron los puntos que tomó Anders Celsius como indicadores para la temperatura y los dividió en cien partes (de ahí grados centígrados) para la medición de temperaturas. Pero la escala Celsius no es la única existente, existen otras escalas que también se ocupan para medir temperaturas como lo es la escala Fahrenheit, que esta difiere de la Celsius tanto en los valores de sus puntos fijos como en el tamaño, es decir, la distancia que hay entre un grado y otro ya que Fahrenheit no se basó en el agua como liquido para obtener la escala. En la escala Fahrenheit, 0°C equivalen a 32°F, y 100°C equivalen a 212°F, lo cual da una diferencia de 180° de una escala a otra. 2.3.4. COEFICIENTE DE DILATACIÓN TÉRMICA. Durante una transferencia de calor, la energía que está almacenada en los enlaces intermoleculares entre 2 átomos cambia. Cuando la energía almacenada aumenta, también lo hace la longitud de estos enlaces. Así, los sólidos normalmente* se expanden al calentarse y se contraen al enfriarse; este comportamiento de respuesta ante la temperatura se expresa mediante el coeficiente de dilatación térmica (unidades: °C-1): (3) Esto no ocurre para todos los sólidos: el ejemplo más típico que no lo cumple es el hielo. 40 Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado es el coeficiente de dilatación lineal αL. Para una dimensión lineal cualquiera, se puede medir experimentalmente comparando el valor de dicha magnitud antes y después de cierto cambio de temperatura, mediante la siguiente ecuación: (4) Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa como la letra lambda . En gases y líquidos es más común usar el coeficiente de dilatación volumétrico αV, que viene dado por la expresión: (5) Para sólidos, también puede medirse la dilatación térmica, aunque resulta menos importante en la mayoría de aplicaciones técnicas. Para la mayoría de sólidos en las situaciones prácticas de interés, el coeficiente de dilatación volumétrico resulta ser más o menos el triple del coeficiente de dilatación lineal: (6) Esta relación es exacta en el caso de sólidos isótropos. 3. SISTEMA DE VARIABLES. La presente investigación está constituida por las variables: Sistemas de Control Difuso y La Temperatura. A continuación se procede a realizar la definición nominal, conceptual y operacional de cada variable. 41 3.1. DEFINICIÓN NOMINAL. Sistema de Control Difuso. Temperatura. 3.2. DEFINICIÓN CONCEPTUAL. Sistemas de Control Difuso. Según el artículo publicado por D’Negri (2006) y la revista publicada por Rojas (2012) explica que el profesor Zadeh, ante la inconformidad con los sistemas de conjuntos clásicos que sólo permitían dos opciones, la pertenencia o no de un elemento a dicho conjunto, presentó lo que denominó, en contraposición a estos clásicos, los sistema de conjuntos difusos como una forma de procesar información permitiendo pertenencias parciales a unos conjuntos, llevando de esta manera a la formación de controladores bajo ese principio para optimizar procesos y/o sistemas en donde la lógica clásica no es factible. Temperatura. Para Carpi (2003), un cuerpo tiene mayor temperatura cuando es mayor la velocidad con que se mueven sus partículas. Esta situación, es decir, la mayor agitación, provoca una mayor cantidad de choques entre las partículas y con mayor liberación de energía (calor), y que ese calor generado o producido al ser medido es lo que trae consigo la definición de esta magnitud física. 42 3.3. DEFINICIÓN OPERACIONAL. Sistema de Control de Temperatura Difuso. Es una rama del denominado sistema de inteligencia artificial que permite trabajar con información de alto grado de distinción ante la variable de temperatura, de manera que permite trabajar con valores intermedios para poder definir evaluaciones mas precisas entre caliente o frio, bajo o alta temperatura, así como otros situaciones que la lógica convencional suele ejercer. Además de ser un sistema que ante evaluaciones permite realizar ajustes y revisiones continuas ante respuestas condicionadas por la temperatura que se desea y busca establecer. Tomando en cuenta que esta modalidad se implementa bajo reglas de diseño de los sistemas de hardware y software para la ejecución del control lógico difuso de la temperatura.