SISTEMAS EXPERTOS E INTELIGENCIA ARTIFICIAL CRISTHIAN ALEXANDER MARTINEZ ARENALES HECTOR ANDRES RODRIGUEZ MARTINEZ MIGUEL LEONARDO OCAMPO GOMEZ ESCUELA COLOMBIANA DE CARRERAS INDUSTRIALES FACULTAD DE INGENIERIA SISTEMAS DE INFORMACION GERENCIAL BOGOTÁ, D.C. SEPTEMBRE, 2015. 1 SISTEMAS EXPERTOS E INTELIGENCIA ARTIFICIAL CRISTHIAN ALEXANDER MARTINEZ ARENALES HECTOR ANDRES RODRIGUEZ MARTINEZ MIGUEL LEONARDO OCAMPO GOMEZ PROFESOR PEDRO CASTAÑEDA ESCUELA COLOMBIANA DE CARRERAS INDUSTRIALES FACULTAD DE INGENIERIA SISTEMAS DE INFORMACION GERENCIAL BOGOTÁ, D.C. SEPTEMBRE, 2015. 2 TABLA DE CONTENIDO 0. INTRODUCCION 1. INTELIGENCIA ARTIFICIAL 2. EVOLUCION HISTORICA 3. REDES NEURONALES 4. SISTEMAS EXPERTOS 5. FACTOR CRITICO DE ÉXITO 6. CONCLUCIONES 7. CIBERGRAFIAS 3 INTRODUCCIÓN. Para que una organización sea competitiva en el mercado y ante sus rivales, debe contar con algunas herramientas que les permita ser más ordenados y eficientes en todos los procesos administrativos, productivos o comerciales, pero en muchos casos esto no se cumple debido a la incorrecta utilización de los recursos que ofrece el entorno a las empresas. Dado que los objetivos principales de las dos temáticas expuestas a continuación es manejar una evolución continúa a la vanguardia de las investigaciones en informática y continuamente se extiende a nuevos canales de investigación, actualmente dentro del campo de la inteligencia artificial al que se le atribuye esa facultad es a los sistemas expertos. Estos permiten la creación de máquinas que razonan, con restricciones a un espacio limitado. En la actualidad los empresarios y las industrias han invertido grandes esfuerzos para tratar de dar a las maquinas cierta capacidad de decisión incluso un cierto grado de inteligencia que se verán reflejados en los sistemas expertos, en si no tiene verdadera inteligencia artificial ; más bien es un sistema basado en conocimientos basado en el buen diseño de su base de información y un adecuado motor de lógica para manipular los datos de una manera, determinar resoluciones finales dados ciertos criterios. Los sistemas expertos son una herramienta poderosa para los usuarios en los procesos, ya que se tiene una secuencia de pasos definidos, pero que puede configurada para generar un apoyo y/o guía. 4 1. INTELIGENCIA ARTIFICIAL La inteligencia artificial es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano. Por ello el objetivo principal de esta disciplina no son tanto los programas o el propio ordenador sino la conducta inteligente y, en particular, la conducta humana. Cuando se refieren a la IA como la misma disciplina que se encarga del estudio de las diversas alternativas que pueden ser arbitradas para captar el conocimiento. . Su idea es que la IA puede entenderse como el estudio de las posibles representaciones del conocimiento y su empleo en el lenguaje, el razonamiento, el aprendizaje, etc El comportamiento inteligente esta infinitamente ligado con las habilidades para: construir, interpretar, describir, modificar, comparar y utilizar estructuras complejas, incluidas las simbólicas. 2. EVOLUCION HISTORICA 2.1 INTELIGENCIA ARTIFICIAL Fin de la Segunda Guerra Mundial La Segunda Guerra Mundial juntó a científicos de distintas disciplinas incluyendo campos emergentes como la neurociencia y la computación. En Reino Unido, el matemático Alan Turing y el neurólogo Grey Walter fueron dos de los pioneros que tomaron el reto de la inteligencia artificial. El invierno de la inteligencia artificial El matemático James Lighthill dio en 1973 un reporte sobre el poco avance de la inteligencia artificial en Reino Unido. A principios de los años 70, la inteligencia artificial estaba en problemas: millones habían sido invertidos en ambiciosos proyectos y había poco para mostrar. Después de un fuerte debate en el congreso de Estados Unidos en 1973 sobre el tema, el matemático británico James Lighthill entregó un condenatorio informe sobre el estado de la IA en Reino Unido. Su visión fue que las máquinas de ese entonces solo podrían ganar una partida de ajedrez a "nivel de aficionado". Los fondos para la investigación fueron suprimidos y de esa manera comenzó lo que se conoció como el invierno de la inteligencia artificial. 5 Azul profundo En 1997, se conoció con nombre propio a la primera superestrella de la inteligencia artificial: Azul Profundo (Deep Blue). La supercomputadora creada por IBM se enfrentó al campeón mundial de ajedrez Gary Kasparov y por primera vez una máquina venció a un ser humano en una competencia de esta disciplina. IBM construyó una máquina que en el papel fue muy superior a Kasparov. Fue capaz de analizar 200 posiciones en un segundo, pero ¿lo hizo de forma estratégica? La respuesta es un indudable sí. La supercomputadora ganó una partida en 1996 y seis en 1997, a pesar de las dudas del multicampeón mundial sobre la legalidad de su victoria: creyó que había un humano detrás, manejándola. El primer robot en casa La empresa estadounidense iRobot creó el primer producto comercial exitoso para el uso en el hogar que utiliza el principio de inteligencia artificial: la aspiradora autónoma Roomba. Limpiar la alfombra estaba lejos de las ambiciones de los pioneros de la inteligencia artificial, pero Roomba fue un gran logro. Los sistemas que ordenan su comportamiento son un poco más simples que los algoritmos utilizados en los prototipos "prehistóricos" diseñados por Grey Walter medio siglo antes. Más allá de tener un sensor y un consumo de energía regulado, este dispositivo tiene la suficiente inteligencia como para limpiar el piso y la alfombra de una casa. Máquinas de guerra Al ver que sus sueños de inteligencia artificial funcionar durante la Guerra Fría se desvanecieron, el ejército de Estados Unidos ahora está de regreso con nuevos experimentos. Su principal inversión son los robots autónomos. BigDog, producido por la empresa Boston Dynamics, fue uno de los primeros resultados. Construido para servir como una especie de tanque "animal" en operaciones de tierra, nunca ha sido utilizado de forma oficial. También la empresa iRobot se ha especializado en este terreno. Su robot especializado en control de explosivos, PackBot, se ha utilizado para remover artefactos explosivos a la vez para detectarlos. Reconocimiento de voz En noviembre de 2008, una pequeña ayuda apareció en el nuevo iPhone: una aplicación de Google que reconocía la voz. Suena simple, pero es uno de los mayores descubrimientos en este campo. Más allá de que el reconocimiento de voz es una de las metas de la 6 inteligencia artificial, tras décadas de investigación nunca se había llegado más allá del 80% de precisión. Pero Google logró un enfoque mejor: miles de poderosos computadores, funcionando de forma paralela y aprendiendo patrones a partir de enormes volúmenes de información entregados por los usuarios de Google, lograron llevar la cifra, de acuerdo a sus investigaciones, al 90% de exactitud en el reconocimiento del habla humana. 3. REDES NEURONALES ARTIFICIALES El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de reconocer el rostro de una persona resulta una tarea relativamente sencilla para el hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea costosa para un experto contable y una sencilla rutina para un ordenador básico. Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales. 3.1 CARACTERÍSTICAS Están inspiradas en las neuronas humanas y están construidas por elementos que se tienen un comportamiento similar al de las neuronas biológicas del cerebro humano. o Aprenden de la Experiencia o Abstraen las características principales de una serie de datos. o Generalizan de ejemplos previos a ejemplos nuevos Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio o experiencia. Las ANN pueden cambiar su comportamiento en función del entorno. Se les muestra un conjunto de entradas y ellas mismas se ajustan para producir unas salidas consistentes. Generalizar: extender o ampliar una cosa. Las ANN generalizan automáticamente debido a su propia estructura y naturaleza. Estas redes pueden ofrecer, dentro de un margen, respuestas correctas a entradas que presentan pequeñas variaciones debido a los efectos de ruido o distorsión. Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto. Algunas ANN son capaces de abstraer la esencia de un conjunto de entradas que aparentemente no presentan aspectos comunes o relativos. 7 3.2 ESTRUCTURA BÁSICA DE UNA RED NEURONAL Analogía con el cerebro: la neurona es la unidad fundamental del sistema nervioso y en particular del cerebro. Cada neurona es una simple unidad procesadora que recibe y combina señales desde y hacia otras neuronas. Si la combinación de entradas es suficientemente fuerte la salida de la neurona se activa. Redes Neuronales Artificiales: en las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el elemento procesador,PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta función de transferencia se pasa directamente a la salida del elemento procesador. La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las conexiones neuronales. La Figura (1.2) representa un elemento procesador de una red neuronal artificial implementada en un ordenador. Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las ANN no reside sólamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas. Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben el nombre de capas ocultas. La Figura (1.3) muestra el aspecto de una Red Neuronal Artificial. 3.3 APLICACIONES DE LAS REDES NEURONALES ARTIFICIALES Las características especiales de los sistemas de computación neuronal permiten que sea utilizada esta nueva técnica de cálculo en una extensa variedad de aplicaciones. La computación neuronal provee un acercamiento mayor al reconocimiento y percepción humana que los métodos tradicionales de cálculo. Las redes neuronales artificiales presentan resultados razonables en aplicaciones donde las entradas presentan ruido o las entradas están incompletas. Algunas de las áreas de aplicación de las ANN son las siguientes: Análisis y Procesado de señales - Reconocimiento de Imágenes Control de Procesos - Filtrado de ruido 8 Robótica - Procesado del Lenguaje Diagnósticos médicos - Otros Conversión Texto a Voz: uno de los principales promotores de la computación neuronal en esta área es Terrence Sejnowski. La conversión texto-voz consiste en cambiar los símbolos gráficos de un texto en lenguaje hablado. El sistema de computación neuronal presentado por Sejnowski y Rosemberg, el sistema llamado Curso: Redes Neuronales Artificiales y sus Aplicaciones © Xabier Basogain Olabe 9 Tema 1.- Introducción a la Computación Neuronal NetTalk, convierte texto en fonemas y con la ayuda de un sintetizador de voz (Dectalk) genera voz a partir de un texto escrito. La ventaja que ofrece la computación neuronal frente a las tecnologías tradicionales en la conversión texto-voz es la propiedad de eliminar la necesidad de programar un complejo conjunto de reglas de pronunciación en el ordenador. A pesar de que el sistema NetTalk ofrece un buen comportamiento, la computación neuronal para este tipo de aplicación abre posibilidades de investigación y expectativas de desarrollo comercial. Procesado Natural del Lenguaje: incluye el estudio de cómo se construyen las reglas del lenguaje. Los científicos del conocimiento Rumelhart y McClelland han integrado una red neuronal de proceso natural del lenguaje. El sistema realizado ha aprendido el tiempo verbal pass tense de los verbos en Inglés. Las características propias de la computación neuronal como la capacidad de generalizar a partir de datos incompletos y la capacidad de abstraer, permiten al sistema generar buenos pronósticos para verbos nuevos o verbos desconocidos. Compresión de Imágenes: la compresión de imágenes es la transformación de los datos de una imagen a una representación diferente que requiera menos memoria o que se pueda reconstruir una imagen imperceptible. Cottrel, Munro y Zisper de la Universidad de San Diego y Pisttburgh han diseñado un sistema de compresión de imágenes utilizando una red neuronal con un factor de compresión de 8:1. Reconocimiento de Caracteres: es el proceso de interpretación visual y de clasificación de símbolos. Los investigadores de Nestor, Inc. han desarrollado un sistema de computación neuronal que tras el entrenamiento con un conjunto de tipos de caracteres de letras, es capaz de interpretar un tipo de carácter o letra que no haya visto con anterioridad. 9 Reconocimiento de Patrones en Imágenes: una aplicación típica es la clasificación de objetivos detectados por un sonar. Existen varias ANN basadas en la popular Backpropagation cuyo comportamiento es comparable con el de los operadores humanos. Otra aplicación normal es la inspección industrial. Problemas de Combinatoria: en este tipo de problemas la solución mediante cálculo tradicional requiere un tiempo de proceso (CPU) que es exponencial con el número de entradas. Un ejemplo es el problema del vendedor; el objetivo es elegir el camino más corto posible que debe realizar el vendedor para cubrir un número limitado de ciudades en un área geográfica específica. Este tipo de problema ha sido abordado con éxito por Hopfield y el resultado de su trabajo ha sido el desarrollo de una ANN que ofrece buenos resultados para este problema de combinatoria. Procesado de la Señal: en este tipo de aplicación existen tres clases diferentes de procesado de la señal que han sido objeto de las ANN como son la predicción, el modelado de un sistema y el filtrado de ruido. Predicción: en el mundo real existen muchos fenómenos de los que conocemos su comportamiento a través de una serie temporal de datos o valores. Lapedes y Farber del Laboratorio de Investigación de los Álamos, han demostrado que la red backpropagation supera en un orden de magnitud a los métodos de predicción polinómicos y lineales convencionales para las series temporales caóticas. Modelado de Sistemas: los sistemas lineales son caracterizados por la función de transferencia que no es más que una expresión analítica entre la variable de salida y una variable independiente y sus derivadas. Las ANN también son capaces de aprender una función de transferencia y comportarse correctamente como el sistema lineal que está modelando. Filtro de Ruido: las ANN también pueden ser utilizadas para eliminar el ruido de una señal. Estas redes son capaces de mantener en un alto grado las estructuras y valores de los filtros tradicionales. Modelos Económicos y Financieros: una de las aplicaciones más importantes del modelado y pronóstico es la creación de pronósticos económicos como por ejemplo los precios de existencias, la producción de las cosechas, el interés de las cuentas, el volumen de las ventas etc. Las redes neuronales están ofreciendo mejores resultados en los pronósticos financieros que los métodos convencionales. 10 ServoControl: un problema difícil en el control de un complejo sistema de servomecanismo es encontrar un método de cálculo computacional aceptable para compensar las variaciones físicas que se producen en el sistema. Entre los inconvenientes destaca la imposibilidad en algunos casos de medir con exactitud las variaciones producidas y el excesivo tiempo de cálculo requerido para la obtención de la solución matemática. Existen diferentes redes neuronales que han sido entrenadas para reproducir o predecir el error que se produce en la posición final de un robot. Este error se combina con la posición deseada para proveer una posición adaptativa de corrección y mejorar la exactitud de la posición final. 3.4 IMPLEMENTACIÓN Y TECNOLOGÍAS EMERGENTES El resurgimiento de la computación neuronal en los últimos años se ha producido por el desarrollo teórico de nuevos modelos matemáticos del comportamiento del cerebro y por el desarrollo de nuevas tecnologías que ya están siendo utilizadas en una gran variedad de aplicaciones comerciales. Entre los avances o desarrollos tecnológicos que permiten la realización de la computación neuronal destacan los programas software de simulación, los aceleradores hardware, los chips de silicio y los procesadores ópticos. Simuladores Software: constituyen una de las formas más versátiles con las que se pueden implementar redes neuronales. Estos programas constituyen todo un sistema de desarrollo y realización de prototipos de redes neuronales. Estos programas se utilizan para diseñar, construir, entrenar y probar redes neuronales artificiales para resolver problemas complejos y problemas del mundo real. Los primeros simuladores software se ejecutaban en ordenadores de grandes prestaciones y el avance de los ordenadores personales en capacidad de procesado y capacidad de memoria hace posible que exista una serie de simuladores software de grandes prestaciones que corren sobre ordenadores personales. Entre otros paquetes software se incluye Neural Works, Neuralyst, Explore Net y Kwowledge Net. Aceleradores Hardware: la naturaleza paralela de la computación neuronal se presta a realizar diseños concretos y a medida de dispositivos físicos, aceleradores hardware, que aceleren la ejecución de los cálculos. Los aceleradores hardware para los sistemas de computación neuronal son dispositivos físicos constituidos por diferentes procesadores interconectados que ayudan a la realización y ejecución del comportamiento de las ANN. Una de las ventajas de los aceleradores hardware diseñados específicamente para la computación neuronal es el aumento de la velocidad de procesado. Esta característica permite la utilización de las ANN en aplicaciones 11 de tiempo real. Robert Hecht-Nielsen desarrolló el acelerador hardware Mark III que constaba de 8100 procesadores y trabajaba como un periférico de un VAX. La mayoría de las casas comerciales dedicadas al diseño de las ANN han desarrollado diferentes tarjetas basadas en los diferentes procesadores existentes, diseñadas para trabajar en el entorno de un ordenador personal PC y presentando un progresivo ratio de actualizaciones de interconexiones por segundo. Chips de Silicio: Otro de los campos de la investigación en el mundo de las ANN al margen de los simuladores software y aceleradores hardware, es la integración de todos los componentes de computación neuronal en un chip de silicio. Un ejemplo concreto es el chip Electronic Neural Network (EEN) de la compañía AT&T que contiene 256 transistores-neuronas y más de 100.000 resistencias-sinapsis. Actualmente este chip está siendo utilizado para aplicaciones de compresión del ancho de banda de imágenes de vídeo para poder ser transmitidas por una línea telefónica. Existen muchas compañías y centros de investigación que están trabajando en el desarrollo de circuitos integrados que realizan computación neuronal. La mayoría de las aplicaciones de estos chips está siendo la simulación de procesos sensitivos como la visión de imágenes y la audición de sonidos. 4 SISTEMAS EXPERTOS En 1955 Newell y Simon desarrollan la Teoría de la lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse a la solución correcta del problema. En 1956, se celebra una conferencia en Vermont (USA) de gran trascendencia en el desarrollo de la I.A. John McCarthy propone por primera vez el uso del término "Inteligencia Artificial" para denominar el estudio del tema. En 1957, aparece la primera versión de "The General Problem Solver" (GPS, Solucionador general de problemas), un programa capaz de solucionar problemas de sentido común pero no problemas del mundo real como diagnósticos médicos. El GPS utilizaba la teoría de la retroalimentación de Wiener.. En 1958 McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA. En 1963, el Instituto Tecnológico de Massachussets (MIT) recibe una subvención de 2,2 millones de dólares del gobierno de los Estados Unidos en concepto de investigación en el campo de la IA. De esa forma, se comprueba la importancia que el Gobierno concede a la investigación dentro de ese campo. 12 En 1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego "árbol".Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos. La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto. En 1965 también se empezaron a utilizar técnicas para la resolución de problemas que se caracterizaban por la búsqueda heurística como modelo para la resolución de problemas, y con ellas comenzó la investigación y desarrollo de los sistemas expertos. En 1972, en la Universidad de Standford se desarrolla MYCIN, sistema experto dentro del campo de la medicina para diagnostico de enfermedades infecciosas en la sangre. MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el prog rama era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este. Al mismo tiempo, Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas. En 1972 aparece el lenguaje PROLOG basado en las teorías de Minsky. En 1973 se desarrolla el sistema experto llamado TIERESIAS. El cometido de este sistema experto era el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita. En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC). El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978. En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; 13 XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC. En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC. Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. "Aldo en Disco" para la reparación de calderas hidroestáticas giratorias usadas para la eliminación de bacterias. Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc. formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las "máquinas Lisp", que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las "herramientas de desarrollo de sistemas expertos". En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje "C" lo que acabó con el LISP. A partir de los 90 y con el desarrollo de la informática, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad. Se puede decir que los Sistemas Expertos son el primer resultado operacional de la Inteligencia artificial, pues logran resolver problemas a través del conocimiento y raciocinio de igual forma que lo hace el experto humano. Un Sistema Experto (SE), es básicamente un programa de computadora basado en conocimientos que lleva acabo una persona con los conocimientos y experiencia es decir es un programa que imita el comportamiento humano ya que utiliza la información que le es proporcionada para brindar una opinión sobre un tema en específico. Sistema Experto es un programa de computadora interactivo que contiene la experiencia, conocimiento y habilidad propios de una persona o grupos de personas especialistas en un área particular del conocimiento humano, de manera que permitan resolver problemas específicos de ése área de manera inteligente y satisfactoria 14 Los usuarios que introducen la información al SE son en realidad los expertos humanos, y tratan a su vez de estructurar los conocimientos que poseen para ponerlos entonces a disposición del sistema12. Los SE son útiles para resolver problemas que se basan en conocimiento. Los Sistemas Expertos permiten el desarrollo de otros sistemas que representan el conocimiento como una serie de reglas. Las distintas relaciones, conexiones y afinidades sobre un tema pueden ser compiladas en un Sistema Experto pudiendo incluir relaciones altamente complejas y con Múltiples interacciones. 4.1 COMPORTAMIENTO DE LOS SISTEMASEXPERTOS Un sistema experto puede estar diseñado para demostrar una característica genérica concreta que se ajusta a las necesidades del usuario final, dependiendo del grado de dificultad que la aplicación lleve consigo y de la propia naturaleza de la misma. No obstante sí que es posible encontrar en casi todos ellos una serie de posibilidades (prestaciones), que dada la frecuencia con la que se suelen presentar constituye en si elementos que caracterizan y condicionan el comportamiento de los mismos. 4.2 CREACIONDE LOS SISTEMAS EXPERTOS Arquitectura Básica Un sistema experto está compuesto de los siguientes elementos: base de conocimiento, base de hechos, motor de inferencia, subsistema de explicación, interfaz de usuario. Base de conocimiento Es la parte del sistema experto que contiene el conocimiento sobre el dominio. Hay que obtener el conocimiento del experto y codificarlo en la base de conocimientos. Una forma clásica de representar el conocimiento en un sistema experto son lar reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente. Base de hechos Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos. 15 Motor de inferencia El sistema experto modela el proceso de razonamiento humano con un módulo conocido como el motor de inferencia. Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema. Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad de duplicación el coste finalmente es bajo. • Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el ser humano. • Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí (cansancio, presión, etc.). • Consolidar varios conocimientos. • Apoyo Académico. 4.3 CAMPOS DE APLICACIÓN Según el tipo de problema a resolver, los ámbitos de aplicación en los que más se han utilizado los sistemas basados en el conocimiento son los siguientes: ● Sistemas de ayuda a la toma de decisiones. Se trata de sistemas que a partir de una problemática determinada sugieren la solución que consideran más idónea a partir del conocimiento incluido en el sistema. ● Configuración. Se encargan de la selección y planificación de los componentes que se necesitan en un proceso determinado. Un caso típico son los sistemas que ayudan a configurar los equipos físicos a partir de los componentes existentes y de las restricciones establecidas. ● Diagnóstico. Se trata de sistemas que a partir de unos "síntomas" determinan las causas que lo producen. Ejemplo de ellos son los sistemas basados en el conocimiento de diagnóstico de enfermedades o de averías. ● Interpretación y Análisis. Sirven para tratar grandes volúmenes de información, interpretarla, dar un informe explicativo y sugerir las acciones a tomar. Ejemplo de ellos pueden ser los sistemas de evaluación de resistencia de estructuras frente a terremotos o sistemas de supervisión de procesos industriales. ● Monitorización. Estos sistemas suelen encargarse de monitorizar procesos suministrando una salida de control como respuesta. Existen muchos ejemplos de monitorización de procesos en factorías, plantas químicas, centrales nucleares, etc. Son sistemas que deben funcionar en tiempo real. ● Planificación. Son sistemas que establecen las etapas y recursos necesarios para alcanzar un determinado objetivo. Ejemplo de ellos podría ser un sistema basado en el conocimiento de planificación de trabajos en una factoría. ● Interfaces inteligentes. Hacen de puente entre las personas y equipos complejos y de difícil utilización. Caso típico son los interfaces inteligentes de acceso a base de datos. 16 ● Diseño. Son aquéllos que efectúan la planificación o trazado de un objeto o sistema en base a los requisitos especificados. Suelen ser capaces de dar diferentes soluciones de forma que el usuario pueda elegir aquélla que le convenga. Ejemplo de este tipo son los sistemas de ayuda al diseño de puentes, presas, microcircuitos electrónicos, etc. SISTEMAS DE TRADING Para poder entender un poco mejor el ámbito donde funcionarán los sistemas expertos basado en operaciones bursátiles es necesario profundizar en el entorno donde nos moveremos. Bolsa de Valores Una Bolsa de Valores, es una organización privada que brinda las facilidades necesarias para que sus miembros, atendiendo los mandatos de sus clientes, introduzcan órdenes y realicen negociaciones de compra y venta de valores, tales como acciones de sociedades o compañías anónimas, bonos públicos y privados, certificados, títulos de participación y una amplia variedad de instrumentos de inversión. La negociación de los valores en los mercados bursátiles se hace tomando como base unos precios conocidos y fijados en tiempo real, en un entorno seguro para la actividad de los inversionistas, donde el mecanismo de las transacciones está totalmente regulado, lo que garantiza la legalidad y seguridad. Para cotizar sus valores en la Bolsa, las empresas primero deben hacer públicos sus estados financieros, puesto que a través de ellos se pueden determinar los indicadores que permiten saber la situación financiera de las compañías. 4.4 TIPOS DE SISTEMAS EXPERTOS Hay muchos puntos de vista desde los cuales se pueden clasificar los Sistemas Expertos. Algunos de ellos son: 4.1.1 Basados en reglas previamente establecidas. Los sistemas basados en reglas trabajan mediante la aplicación de parámetros, comparación de resultados y aplicación de las nuevas reglas basadas en situación modificada. También pueden trabajar por inferencia lógica dirigida, bien empezando con una evidencia inicial en una determinada situación y dirigiéndose hacia la obtención de una solución, o bien con hipótesis sobre las posibles soluciones y volviendo hacia atrás para encontrar una evidencia existente (o una deducción de una evidencia existente) que apoye una hipótesis en particular. 4.1.2 Basados en casos o CBR (Case Based Reasoning). 17 El Razonamiento basado en casos es una manera de razonar haciendo analogías. Se ha argumentado que el razonamiento basado en casos no sólo es un método poderoso para el razonamiento de computadoras, sino que es usado por las personas para solucionar problemas cotidianos. Más radicalmente se ha sostenido que todo razonamiento es basado en casos porque está basado en la experiencia previa. 4.1.3 Basados en redes bayesianas. Formalmente, las redes bayesianas son grafos dirigidos acíclicos cuyos nodos representan variables aleatorias en el sentido de Bayes: las mismas pueden ser cantidades observables, variables latentes, parámetros desconocidos o hipótesis. Las aristas representan dependencias condicionales; los nodos que no se encuentran conectados representan variables las cuales son condicionalmente independientes de las otras. Elementos Base de conocimiento. Motor de inferencia. Subsistema de explicación Modelo probabilistico Modelo basado en reglas Abstracto: Estructura Abstractor: reglas Probabilística (sucesos dependientes). Concreto: Hechos. Evaluación de Encadenamiento hacia atrás Probabilidades y hacia delante. condicionales (Teoremas de Bayes). Basado en reglas activas. Basado en probabilidades condicionales. Adquisición de conocimiento Espacio probabilístico Parámetros. Reglas. Factores de certeza. Subsistema de aprendizaje Cambio en la estructura del Nuevas reglas. Cambio en los factores de espacio probabilístico. certeza. Cambio en los parámetros. 5 FACTOR CRITICO DE ÉXITO Plantear una problemática de manera errónea Conocer los programas de desarrollo para la implementación y contar con la infra estructura 18 Contar con la infraestructura adecuada para la implementación de los sistemas expertos y/o la inteligencia artificial La información ingresada en el sistema debe ser verídica El usuario debe tener el conocimiento de las herramientas 6 CONCLUCIONES Un sistema experto es aquel que simula el razonamiento humano ayudando usuario. Cuando los expertos humanos en una determinada materia son escasos, los Sistemas Expertos pueden recoger y difundir su conocimiento. En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas. La posibilidad de poder emular la inteligencia humana ha despertado la curiosidad del ser humano desde tiempos remotos. Y el hombre encontró dos caminos para lograr dicho fin. 7 CIBERGRAFIA http://www.uv.es/~scliment/investigacion/1999/sistemasexpertos.PDF http://www.uaeh.edu.mx/docencia/Tesis/icbi/licenciatura/documentos/Siste mas%20expertos%20y%20sus%20aplicaciones.pdf https://www.google.com.co/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1 7&cad=rja&uact=8&ved=0CDwQFjAGOApqFQoTCJKYxoPLicgCFUkqH godP0wPuA&url=http%3A%2F%2Fhelvia.uco.es%2Fxmlui%2Fbitstream% 2Fhandle%2F10396%2F6938%2FLuis%2520Amador_Inteligencia%2520ar tificial_19961.pdf%3Fsequence%3D1&usg=AFQjCNFJkT0Yp7ca1XI3ezs3fr9S0WQN VQ&sig2=CNQlu1j9--HEHWChNFZlNw&bvm=bv.103073922,d.dmo 19