www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial Inteligencia Artificial: IA El factor humano de la IA El concepto de inteligencia tiene múltiples facetas e interpretaciones. Si alguien calculase mentalmente la raíz trece de un número de cien cifras en menos de un segundo cualquiera de nosotros quedaría fascinado ante tal proeza, y por eso diríamos que un tal hombre es muy inteligente para el cálculo matemático. Dicho hombre existe, es colombiano y se llama Jaime García Serrano. En otra esfera de acción, Ronaldinho guía el balón y lo dirige con sus pies de forma magistral allá donde pone el ojo. Decimos también que es un hombre muy inteligente para jugar al fútbol. También en su día Onassis fue considerado un exitoso e inteligente hombre de negocios. Podríamos así ir analizando las diferentes facetas del quehacer humano y encontraríamos un tipo de inteligencia para cada una de esas facetas. La inteligencia se desvela finalmente como una capacidad especial, y superior a la media de un determinado grupo humano, para realizar determinadas actividades. En ámbitos académicos estaría relacionada con una sobrecapacidad mental para almacenar y procesar información. En ámbitos deportivos estaría relacionada con una capacidad extraordinaria para coordinar movimientos y/o ejecutar determinadas acciones físicas. En ámbito financiero estaríamos hablando de un olfato fuera de lo común para crear y poner en marcha negocios que reporten sustanciosas ganancias económicas. De cualquiera de las maneras, siempre se trataría de una propiedad cerebral, o si se quiere, de ‘circuitos neuronales’, fuera de lo común. Así, el reconocimiento de la inteligencia siempre se ha manifestado sigilosamente entre los compañeros del ‘afortunado’ con aquella frase que dice: "Este chaval tiene coco". Pero atención, no nos llevemos a engaño, el hardware sin software, es decir, sin trabajo, de poco sirve. Como el propio Jaime García reconoce: "Lo mío no es magia ni genes, sino trabajo, técnica y método", o tal como el mismo Picasso afirmó en su día: "95% de trabajo y 5% de inspiración", o lo que es evidente, Ronaldinho sin cinco horas de entrenamiento diarias no sería el singular jugador de fútbol que actualmente, año 2005, conocemos. Fijémonos también que el factor tiempo es una variable importante en la consideración de inteligencia. Nadie consideraría un signo de inteligencia la capacidad de multiplicar dos números de veinte cifras en una semana, pero sí lo es el hacerlo en cinco segundos, aunque claramente la acción ejecutada es la misma. Evidentemente, muchas de las cabezas pensantes que han pasado a la historia hicieron algo revelante durante ciertos periodos de sus vidas. Tenemos, por ejemplo, el caso de Einstein, que en 1905, su Annus Mirabilis, publicó cinco trabajos de alta relevancia para la Física. Así, está histórica y estadísticamente probado, que las grandes aportaciones científicas se hicieron y se hacen entre los 25 y los 35 años de las correspondientes eminencias. Observemos en este punto que, aunque la universidad española está plagada de grandes profesores, lo que sin duda supondría una gran concentración de inteligencia, si hacemos eco de lo que nos dice la historia académica de nuestro país, y si extendemos el ámbito espacial más allá del localismo que los envuelve, la mayor parte de ellos se jubilaron sin haber hecho ningún aporte que resaltar en la correspondiente rama de su especialidad. Así pues, es un puro ejercicio de rango espacial el considerar o no ciertos casos como muestrario de inteligencia. Queda claro entonces con este ejemplo que la inteligencia tiene un componente que ciertamente expresa la capacidad de emulación o repetición, pero, desde luego, no acaba por definirla completamente. Y es este último punto sugerido donde la Inteligencia Artificial encuentra las mayores pegas para implementar inteligencia. El tema de la creatividad. Hasta ahora se han desentrañado algoritmos que emulan esa capacidad neuronal especial, o se pueden diseñar arquitecturas que la recreen. En último término siempre se podría implementar un algoritmo de tipo fuerza-bruta que sondease todas las soluciones posibles a un problema dado. Si, por otro lado, vamos aumentando la velocidad de cálculo y procesamiento de las máquinas, es decir, se disminuye el tiempo de ejecución de la acción en concreto, ya estaríamos en posición de poder decir que hemos resuelto el problema de la inteligencia, y que somos capaces de ‘producirla’ artificialmente. Pero, a día de hoy, no hemos logrado desvelar los procesos neuronales por los que los hombres inteligentes hacen gala de esa propiedad tan codiciada y envidiada que se llama Inteligencia (natural): esa capacidad que poseen ciertos hombres de poder encontrar una solución a un problema sin resolver o una solución nueva a un problema ya resuelto, sin más herramienta que el uso de una heurística o experiencia propia, la cual fue adquirida a través del estudio o experimentación sobre un número finito de problemas más o menos similares. Y es esa dosis de mayor o menor creatividad la que caracteriza y diferencia, ahora mismo, lo que se considera inteligencia humana de lo que se considera inteligencia implementada en una máquina. ¿QUÉ ES LA IA? Existen varias definiciones: “Es la ciencia de hacer máquinas que hacen cosas que realizadas por el hombre requieren el uso de inteligencia”. Marvin Minsky En ciencias de la computación se denomina IA a las inteligencias no naturales en agentes racionales no vivos. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes." www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial En otra acepción podríamos definirla como el estudio de las computaciones que permiten percibir, razonar y actuar. Es una de las aéreas de las ciencias computacionales encargadas de la creación de hardware y software que tenga comportamientos inteligentes. La IA es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La IA puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano. Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza." PRUEBA DE TURING, es el denominado experimento para demostrar si un computador piensa o no. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente. La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico. A través de la IA se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico. TRES LEYES DE LA ROBÓTICA. Estas leyes surgen como medida de protección para los seres humanos. En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los robots (líneas de código del programa de funcionamiento del robot guardadas en la ROM del mismo). Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente: Un robot no puede herir a un ser humano, ni por inacción dejar que un ser humano sufra daño. ¿Un robot debe obedecer las órdenes impartidas por los seres humanos, salvo si viola la primera ley. Un robot debe salvaguardar su existencia, salvo cuando ésta contravenga las dos leyes anteriores. BREVE HISTORIA DE LA IA. La historia de la IA se remonta a los primeros años de la década del 40, con trabajos teóricos fundamentalmente dado el estado de la Informática en ese momento, cuando los matemáticos Warren McCullock y Walter Pitts, específicamente en 1943, desarrollan los algoritmos matemáticos necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronales creando, conjuntamente con los trabajos de McCullock y Pitts, la escuela coneccionista. Esta escuela se considera actualmente como el origen de lo que hoy se conoce como IA (IA). Sin embargo el modelo coneccionista resultó poco tratado hasta hace unos años, dando paso en su lugar al razonamiento simbólico basado en reglas de producción, lo cual se conoce popularmente como Sistemas Expertos En el año 1955 Herbert Simon, el físico Allen Newell, uno de los padres de la IA actual, y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrollan el primer lenguaje de programación orientado a la resolución de problemas de la IA, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de IA al que llamaron "Logic Theorist", el cual era capaz de demostrar teoremas matemáticos. En el mismo año surge la IA como disciplina de la Informática en la Conferencia de Computación de Dartmouth. En dicha conferencia www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina. A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam" En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra. En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés. En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una cámara, sino también la comprensión, por parte del ordenador, de lo que estas imágenes representan. En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la mente humana a través de una red neuronal y produce un primer resultado al cual llama Perceptron. Este trabajo constituye la base de las redes neuronales de hoy en día. 1984. John Hopfield resucita las redes neuronales 1986. La máquina de ajedrez HiTech de CMU compite en un torneo de nivel master. 1991. Aparecen compañías dedicadas al desarrollo de Redes Neuronales. 1989. El chip del 386 ofrece una velocidad a los PCs comparable a la de las máquinas Lisp. 1990. La compañía TI anuncia imcroExplorer una máquina Lisp con tecnología Macintosh. 1994. La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de intercambio de AT&T. 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue. 2000 Mascotas robots disponibles en el mercado. 2006 Se celebra el aniversario con el Congreso en español 50 años de IA - Campus Multidisciplinar en Percepción e Inteligencia. 2008. Investigadores de la Universidad Pablo de Olavide desarrollan un sistema integral de gestión basado en técnicas de IA, con el objetivo de mitigar los riesgos inherentes a estos sistemas integrados de gestión y facilitar así su implantación en la empresa. 2010. Sensores y sensibilidad: mejores prótesis gracias al avance de la IA 2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda de tres juegos seguidos de Jeopardy, venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad. En la actualidad existen grandes avances en robots que utilizan la IA dando como resultado "recepcionistas", "jugadores de fútbol", "soldados", "exploradores" y hasta "cuidadores de ancianos". AREAS DE LA IA Búsqueda de soluciones Sistemas Expertos Procesamiento del Lenguaje Natural Visión de Maquina Redes Neuronales Lingüística computacional Minería de datos (Data Mining) Industriales Médicina Mundos virtuales Procesamiento de lenguaje natural (Natural Language Processing) Robótica Mecatrónica Sistemas de apoyo a la decisión Videojuegos Prototipos informáticos Análisis de sistemas dinámicos. Smart Process Management Simulación de multitudes www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial Como lenguajes utilizados en I.A. podemos destacar IPL II (para el procesamiento de listas), SAIL (derivado del ALGOL, para sistemas de visión y procesamiento de lenguaje natural), RAIL(lenguaje de robots), AL(para calcular los movimientos de un robot en el espacio), VAL(para programación de robots industriales) y AML(desarrollado por IBM para el control de robots); aunque los más utilizados actualmente son LISP con sus variantes: MACLISP, INTERLISP, ZETALISP Y PSL. Por otro lado está PROLOG. Es mas utilizado en Europa y Japón, de hecho logró que LISP cayera en desuso, aunque en la actualidad se encuentra en plena reactivación. SISTEMAS EXPERTOS El estudio y desarrollo de los sistemas expertos (ses) comenzó a mediados de la década del 60. ”Son programas de computadora diseñados para resolver problemas que normalmente son solucionados por expertos humanos en una rama del conocimiento especifica, y mediante esquemas propios del cerebro humano tales como memorización, razonamiento y aprendizaje automático para apoyar a un usuario en la toma de decisiones”. Los sistemas expertos son llamados así porque emulan el razonamiento de un experto en un dominio concreto y en ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto. La IA se utiliza en Sistemas Expertos para representar el conocimiento en una computadora, es decir, consiste en encontrar una correspondencia entre el mundo exterior un sistema simbólico que permita el razonamiento. En teoría estos sistemas son capaces de razonar siguiendo pasos comparables a los que sigue un especialista (médico, biólogo, geólogo, matemático, etc), cuando resuelve un problema propio de su disciplina. Por ello el creador de un se debe comenzar por identificar y recoger, del experto humano, los conocimientos que éste utiliza: conocimientos teóricos, pero sobre todo los conocimientos empíricos adquiridos en la práctica. El Procesamiento del Lenguaje Natural es el área de la IA que se encarga de crear condiciones similares a las seguidas por un humano para el procesamiento del lenguaje natural a nivel texto y fonético. ROBÓTICA Etimológicamente la palabra robot proviene del idioma checo de la palabra robota que significa esclavitud / servidumbre aunque más asociada al trabajo, habiéndose acuñado en una obra escrita en 1921 por Karel Capeck titulada "Rossum´s Universal Robots". Según el diccionario Webster robot es un dispositivo automático que efectúa funciones ordinariamente asociadas a los seres humano, concepto completado con la idea de robot manipulador reprogramable multifuncional diseñado para mover materiales, piezas o dispositivos especializados, a través de movimientos programados variables para la realización de una diversidad de tareas. Tipos de Robots: Según su forma Poliarticulados: brazos mecánicos y automatismos. Móviles: robots rodantes y robots multipodos (mecatrones). Según su uso: robots industriales militares animatrones o promocionales educativos médicos domésticos o personales REDES NEURONALES Sistema computacional que consta de un gran número de elementos simples interconectados, que procesan la información respondiendo dinámicamente frente a estímulos externos. Componentes: una red está compuesta por nodos o neuronas, que están unidas mediante conexiones a las cuales se le asigna un peso numérico. Los pesos constituyen el principal recurso de memoria de la red, a largo plazo. Aplicaciones Sistemas de decisión. www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial Procesamiento de señales. Lenguaje natural. Visión artificial Reconocimiento de texto escrito a mano e impreso. Control en tiempo real. Problemas de búsqueda de soluciones. Predicción de series temporales PERSPECTIVAS FUTURAS. Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de referencia sólido de la ciencia actual. En septiembre de 1987, 160 científicos en informática, física, biología y otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos para la primera conferencia internacional sobre Vida Artificial. En aquella conferencia se definieron los principios básicos que han marcado la pauta desde entonces en la investigación de esta disciplina. Un concepto básico dentro de este campo es el de comportamiento emergente. El comportamiento emergente aparece cuando se puede generar un sistema complejo a partir de reglas sencillas. Para que se dé este comportamiento se requiere que el sistema en cuestión sea iterativo, es decir, que el mismo proceso se repita de forma continua y además que las ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales. Por otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un conjunto de celdas, de forma que cada celda puede encontrarse en dos o más estados, dependiendo de un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de las celdas que le rodean. Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil. Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos sistemas, pero sin mayores pretensiones. Para los que defienden la versión fuerte, dicen que se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las características básicas de los seres vivos. Desde este punto de vista, la vida se divide en vida húmeda, que es lo que todo el mundo conoce como vida, vida seca, formada por autómatas físicamente tangibles, y vida virtual, formada por programas de computador. Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida Artificial. ALGUNAS NOTICIAS LLAMATIVAS: En Agosto de 2.011, un grupo de científicos e ingenieros de IBM dice haber dado un paso importante en el acercamiento de estos dos tipos de aprendizaje. Estos científicos dicen tener entre manos dos prototipos de chips que procesan información de forma más similar a como lo hacen los humanos y más alejado de como lo hacen las computadoras. Esta investigación, que lleva más de 7 años en carrera, fue solventada en parte por la Defense Advanced Research Projects Agency (DARPA) e IBM Corp. Es claro que los chips aún están muy lejos de poder aprender a conducir un auto por sí solos o jugar al ping-pong. De todas maneras los investigadores dicen que este ha sido un gran paso en el campo de la Inteligencia Artificial. Los investigadores dicen que no debe tomarse en cuenta "qué" pueden hacer hasta ahora los chips, sino "cómo" lo están haciendo. Ahí está el verdadero progreso de la investigación. Aplicaciones Algunos de los usos básicos en los que está pensando la compañía son por ejemplo el control de las luces de tránsito y semáforos. Ya que sí estos chips pueden aprender la conducta de los conductores y los horarios de los cruces pueden mejorar considerablemente el tránsito. Dharmendra Modha, la directora del proyecto de IBM, afirma que los nuevos chips contienen partes que se comportan como "neuronas" y que crean "sinapsis", esto hace la verdadera diferencia con los chips antiguos. Este proyecto es parte del mismo el cual usando supercomputadores en 2006 logró simular el 40% de el cerebro de un ratón. Más tarde en 2007 consiguió simular el cerebro de una rata por completo. Luego siguió avanzando, y en 2009 www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial anunció haber simulado parte de la corteza cerebral de un gato. El mismo año también declaró haber podido recrear el 1% de la corteza cerebral de un humano. 22 de febrero de 2012: Inteligencia artificial para proteger el World Trade Center en EE.UU. El World Trade Center (WTC) de Nueva York, en EE.UU., tendrá cientos de cámaras con "cerebro", preparadas para detectar movimientos extraños y evitar que el complejo de edificios se convierta en blanco de atentados por tercera vez en su historia. Una compañía experta en seguridad militar instalará "cámaras dotadas de inteligencia artificial y capaces de detectar comportamientos anormales". El presidente de Behavioral Recognition Systems, John Frazzini, explicó a BBC Mundo que no puede dar detalles del plan de seguridad de la Zona Cero pero describió el funcionamiento de las cámaras, las que se instalarán en un espacio que tiene 6.5 hectáreas. Las sofisticadas medidas, que tienen un costo millonario, buscan impedir que alguien atente contra el conjunto de edificios, que en un principio incluirá edificios de oficinas, un centro comercial, el memorial de víctimas de los atentados del 11 de septiembre de 2001, un espacio público y una terminal de transporte público. En alerta Un equipo de cámaras inteligentes vigilará todos los movimientos del nuevo complejo, que se inaugurará en 2013. Tras unos días registrando sobre terreno, las cámaras procesarán la actividad normal del espacio que vigilan y se pondrán en alerta cuando detecten movimientos nuevos, como que una persona cambie bruscamente de trayecto o corra hacia peatones, o deje una bolsa o paquete en el suelo. Las cámaras también reaccionarán cuando un automóvil estacione en un espacio no apto para este uso o permanezca estacionado por un largo período. El programa informático vigila movimientos "genéricos" de las personas, que no son identificadas. Espacios como los aseos públicos quedan fuera del radio de acción de las máquinas. "Respetamos la privacidad de los ciudadanos y las cámaras no capturan ni registran información de personas concretas", apuntó Frazzini. El WTC ha sufrido atentados terroristas en dos ocasiones. Seis personas murieron como consecuencia de un atentado con bomba el 26 de febrero de 1993. Siete años más tarde, el 11 de septiembre de 2001, las Torres Gemelas se convirtieron en el objetivo de los atentados terroristas más sangrientos de toda la historia de Estados Unidos, con un balance de más de 2.700 muertes. Gran hermano pensante Hoteles, puertos, aeropuertos y espacios públicos de varias ciudades del mundo utilizan las cámaras inteligentes de Behavioral Recognition Systems. El nuevo complejo se inaugurará en 2013. Con sede en Houston, Texas, la compañía tiene oficinas comerciales en Washington, Londres, Sao Paulo, Riad y Barcelona, y también trabaja para el Departamento de Defensa de Estados Unidos. Frazzini asegura que los nuevos avances tecnológicos convierten a las cámaras en máquinas pensantes y con capacidad de reacción. "En la última década ciudades como Londres instalaron miles de cámaras que no tenían cerebro", explica Frazzini, quien agrega: "Se limitaban a registrar comportamientos pero no eran capaces de analizarlos sin la ayuda de seres humanos". El experto en seguridad recuerda que solo en el Reino Unido hay más de tres millones de cámaras no inteligentes y "un número mucho más reducido de agentes que las siguen". "Estas cámaras eran de utilidad en casos de seguimiento de acciones específicas, por ejemplo, si la policía quería vigilar una esquina donde se vendiera droga", explica. Inteligencia artificial, el futuro: Wozniak. Jueves 09 de febrero de 2012 Las aplicaciones son componentes increíbles en los dispositivos móviles, ejemplo de ello es Siri, un programa que viene en el iPhone 4S, el cual reconoce la voz del usuario, responde preguntas y hace recomendaciones de lugares para cenar o para divertirse dependiendo del lugar donde nos encontremos: “eso es el futuro de las computadoras y dispositivos móviles, el que podamos comunicarnos de manera inteligente humanos con máquinas”, dijo Steve Wozniak, cofundador de Apple, durante el evento de negocios SAP Forum 2012. www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial En su ponencia, Wozniak hizo un recuento de la historia de la compañía Apple, de cómo conoció a Steve Jobs a principios de los años 70 y de cómo nació la idea de crear una computadora que fuera accesible para todos. “Estábamos Jobs y yo en nuestros años 20’s, no teníamos dinero ni experiencia en negocios, pero teníamos una buena idea, así que la echamos a andar y nuestro primer éxito fue la Apple II”, contó Steve Wozniak. “El futuro es la comunicación entre máquinas y humanos, y hoy ya lo estamos viendo en nuestros dispositivos móviles, hay una cámara que me reconoce, hay un micrófono que reconoce mi voz y hay una superficie — el touchpad — que reconoce mi tacto… Las aplicaciones jugarán un papel importante y algún día las computadoras serán más importantes para los usuarios que sus amigos reales porque sabrán qué quieren y qué necesitan con exactitud”, aseguró el cofundador de Apple. Wozniak fundó Apple junto con Steve Jobs en 1976 y creó las computadoras Apple I y II. Wozniak envió un mensaje a los ingenieros mexicanos: “la videoconferencia será vital; jamás descarten uno de sus sueños; las aplicaciones son vitales; que sus inventos desemboquen en dar soluciones a las personas; sean un ‘Superman’, no tengan miedo a nada y no tengan límites”, dijo. Ciencia que no es ficción. Domingo 05 de febrero de 2012 Sistemas que resuelven diagnósticos médicos y asisten a cirujanos, órganos biónicos para llegar más lejos, robots con habilidades afectivas... Es la era de los post humanos: el futuro está entre nosotros De La guerra de las galaxias a Matrix , la idea de máquinas que superan a los humanos es una inquietante posibilidad. Los avances en robótica, inteligencia artificial y sistemas expertos han vuelto reales muchos de los planteos de la ciencia ficción. Por primera vez, en 2011 la computadora Watson superó en el juego de preguntas y respuestas Jeopardy a dos oponentes humanos que habían ganado el concurso anteriormente. El próximo paso de este dispositivo desarrollado por el laboratorio de inteligencia artificial de IBM es convertirse en médico, para revolucionar los diagnósticos clínicos gracias a su enorme poder de procesamiento de variables complejas (como síntomas de enfermedades y parámetros de estudios físicos). En el campo de las intervenciones quirúrgicas, el robot Da Vinci (operando en el Hospital Italiano de Buenos Aires desde 2008), es capaz de reproducir con sus cuatro brazos los movimientos que, desde la consola, realiza el cirujano. Y los efectúa aún con mayor precisión ya que sus circuitos filtran los casi imperceptibles temblores de la mano. Y para quienes creen que leer la mente es cosa de brujas y pitonisas, un sistema creado por el investigador Jack Gallant de la Universidad de California en Berkeley permitió escanear los pensamientos de un grupo de voluntarios y reflejarlos en colores en el monitor de una computadora. Asímismo, los sistemas que permiten controlar dispositivos externos utilizando meramente el movimiento de los párpados o impulsos cerebrales (como los que utiliza el científico Stephen Hawking) son parte hace tiempo de la vida cotidiana. En tanto, la compañía Vint Cerf está desarrollando un protocolo de transmisión M2M (mind to mind) para permitir la transferencia de información entre personas, a velocidades muy superiores a los de los más avanzados módems, según reportó la revista The Economist. Y eso no es todo. Científicos de la University of Southern California crearon una suerte de implante cerebral que ayudaría a los pacientes con Alzheimer a recobrar los recuerdos. Colocado en una persona normal, serviría para mejorar la memoria. El dispositivo fue testeado en un grupo de ratas a las que se entrenó para encontrar la salida a un laberinto, y luego ese aprendizaje, almacenado en el implante neuronal, se trasladó a otro grupo de ratas "inexpertas", quienes automáticamente encontraron la salida. Si bien las investigaciones son preliminares, la posibilidad de implantar recuerdos de una persona a otra suena por lo menos inquietante. Pero habrá que acostumbrarse, muchas cosas nuevas están llegando. Ciencia que no es ficción Para entender lo que se viene es preciso, ante todo, diferenciar algunos conceptos. En primer lugar, "la inteligencia artificial es un campo interdisciplinario que busca que las máquinas realicen tareas típicamente humanas, como manejar un auto, encender la calefacción cuando bajó la temperatura, traducir un texto de un idioma a otro", explica Laura Alonso, doctora en Ciencia Cognitiva y Lenguaje, y miembro del Grupo de Procesamiento del Lenguaje Natural de la Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba. Alonso coordina, junto con un equipo de científicos cordobeses, el desarrollo de un sistema de traducción automatizado para las lenguas mocoví y quechua, que están en riesgo de desaparición. Hoy la inteligencia artificial puede ir más allá de sistematizar y automatizar el conocimiento humano. "Hay sistemas que se adaptan a nuevos contextos y aprenden a www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial partir de pruebas de ensayo y error", dice la especialista en Lingüística Computacional. Incluso algunos son capaces de descubrir información novedosa y detectar correlaciones y fenómenos nuevos, como aquellos que se utilizan en investigación farmacológica para el descubrimiento de nuevas drogas. También existen los llamados "sistemas expertos", que son muy rápidos y eficientes en un área restringida de conocimiento, como autorizar transacciones con una tarjeta de crédito o gestionar un sistema de reservas aéreas. En tanto, la llamada "simulación cognitiva" se utiliza para investigar cómo funciona la mente humana para reconocer rostros o interpretar el lenguaje, y cómo trabajan las redes de neuronas. La llamada Teoría de las Redes es uno de los campos de confluencia entre la computación y la neurología, dado que permite detectar ciertas regularidades en los sistemas complejos. "Al igual que Internet, el cerebro tiene pocos nodos que se conectan con una gran cantidad de otros, que a su vez tienen pocas conexiones", dice el físico y biólogo argentino Guillermo Cecchi, investigador en el laboratorio de inteligencia artificial de IBM en los Estados Unidos. Cecchi y su equipo se dedican al análisis de redes complejas para estudiar cómo el cerebro se comunica internamente y cómo piensa. Sus hallazgos ayudarán a comprender mejor y encontrar nuevas alternativas al tratamiento de patologías como la esquizofrenia. Robots cada vez mas humanos Décadas atrás, se hicieron enormes inversiones en el desarrollo de la robótica industrial (automatización en las fábricas, brazos robóticos) y militar (para detección y desactivación de explosivos, por caso). En los años más recientes, se incrementaron las investigaciones en robótica aplicada a la salud y el cuidado personal. También se verán cada vez con mayor frecuencia los "enjambres de robots" (robot swarms) que realizan coordinadamente múltiples tareas administrativas y de producción. Con la ventaja de que no reclaman por sus derechos laborales ni se distraen charlando de fútbol, intercambiando chismes en los pasillos, espiando lo que hacen sus amigos en Facebook ni cuidando granjas virtuales. "Una de las tendencias actuales más fuertes es la humanización de la robótica", destaca Mei Chen, investigador principal del Intel Science and Technology Center en California, Estados Unidos. No por nada, la llamada informática afectiva tiene su propia organización internacional (Humaine), que celebra dos conferencias internacionales al año para la actualización de sus especialistas. En Japón -cuna de la robótica-, se han desarrollado comercialmente robots capaces de reproducir expresiones humanas y mantener conversaciones básicas, diseñados para acompañar a personas de la tercera edad. Expertos de la Universidad de Illinois crearon un software que permite a un robot imitar expresiones humanas e interactuar con niños autistas. "Dado que una de las características del autismo es la imposibilidad de mirar a los ojos al interlocutor, un robot resulta menos intimidante", explica Stephen Porges, uno de los que desarrollaron el software. La utilización de robots como asistentes en educación también está difundida. Sin embargo, las máquinas difícilmente reemplacen a los docentes de carne y hueso. "El aprendizaje requiere interactuar con otras personas", afirma el neurólogo Facundo Manes, director del Instituto de Neurociencias de la Universidad Favaloro y del Instituto de Neurología Cognitiva de Buenos Aires (Ineco). Manes refiere un experimento en el que tres grupos de bebes, cuya lengua materna era el inglés, fueron expuestos al aprendizaje de chino. El primer grupo, con un maestro en vivo; el segundo, con películas del mismo hablante, y el tercer grupo, sólo con audios. El tiempo de exposición y el contenido fueron idénticos, pero luego del entrenamiento, los bebes que vieron al maestro en vivo distinguieron sílabas y sonidos con un rendimiento similar al de un bebe nativo chino. Los bebes que estuvieron expuestos a ese idioma a través del video o el audio no aprendieron a distinguir sonidos, y su rendimiento fue similar al de bebes sin entrenamiento. Prótesis biónicas Así como el Hombre nuclear y la Mujer biónica, protagonistas de las populares series de los años 70, tenían extremidades y órganos artificiales, científicos del Doheny Eye Institute de la Universidad de California del Sur, crearon un ojo biónico que permite restaurar la visión a personas ciegas. También se están desarrollando brazos y manos artificiales que pueden accionarse con impulsos cerebrales, aunque aún no han logrado la sutileza en los movimientos de los miembros naturales. En 2008, el Comité Olímpico Internacional denegó a Oscar Pistorius, un atleta sudafricano sin piernas, su participación en los Juegos Olímpicos de Pekín debido a que sus prótesis le daban ventaja sobre los atletas convencionales. "Si hasta aquí la idea de máquinas inteligentes y dotadas de sentimientos resulta sorprendente, habrá que pensar en convivir con partes de nuestro cuerpo no biológicas", asegura Santiago Bilinkis, que en 2010 participó de un programa de capacitación en Singularity University, en la NASA. "¿Qué ocurrirá cuando los costos de este tipo de prótesis estén al alcance de una mayoría de personas? ¿Nos cortaremos las piernas para ponernos unas más rápidas? -se pregunta Bilinkis- ¿Si vamos al quirófano para cambiar partes de nuestro cuerpo por estética, por qué no lo haremos por funcionalidad?" Los doctores Lucas Terissi y Juan Carlos Gómez, del Centro Internacional Franco Argentino de Ciencias de la Información y Sistemas (Cifasis) del Conicet, trabajan en la animación de imágenes 3D del rostro humano para imitar los movimientos del habla. www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial Las aplicaciones de esta tecnología van desde la medicina hasta el cine. "Se puede usar en un teléfono móvil, donde además de escuchar el sonido, se pueda ver al modelo 3D hablando", dice el doctor Terissi. "Esto facilitaría la comunicación para personas con hipoacusia, ya que para la inteligibilidad de un mensaje no sólo es importante la señal acústica sino la información visual del movimiento de los labios y gestos". Lo cierto es que los avances en el terreno de la inteligencia artificial y las tecnologías de mejoramiento humano (Human Enhancement Technologies - HET) plantean enormes dilemas éticos. "Todos los métodos y herramientas que facilitan el acceso a la información también pueden ser usados para ocultar y manipular", dice la investigadora Laura Alonso. "La transparencia está en manos de quienes crean las tecnologías, y la vigilancia de parte de quienes las usan". Para Mei Chen, del ISTC, la disyuntiva está del lado del acceso a los nuevos dispositivos y tecnologías. "Su uso para mejorar las capacidades de personas sanas no sólo crea problemas regulatorios y de financiamiento, sino enormes cuestionamientos éticos, dado que, por su alto costo, sólo las personas ricas accederán a ellos y esto podría ahondar las inequidades entre un grupo social mejorado y otro convencional." De ahí al diseño de una sociedad de castas diferenciadas como la que plantea Aldous Huxley en Un mundo feliz, hay sólo un paso. El futuro puede ser tan bueno o tan malo como seamos capaces de construirlo. Un laboratorio franco-español impulsará la investigación en inteligencia artificial y lógica computacional. 20/02/2012 El Associated European Laboratory, en el que participan la Universidad Politécnica de Madrid y varias universidades y centros tecnológicos galos, tendrá su sede en el campus de la UPM de Montegancedo desde donde se llevarán a cabo programas de I+D en lógica computacional, ingeniería ontológica, agentes inteligentes y programación declarativa. La Universidad Politécnica de Madrid colaborará estrechamente con las entidades francesas Université Paul Sabatier Toulouse 3, el Centre National de la Recherche Scientifique (CNRS), la Université Tolouse 1 Capitole, la Université Toulouse 2 Le Mitail y el Institut National Polytechnique de Toulouse para llevar a cabo tareas de investigación y desarrollo en incipientes campos como la inteligencia artificial y la lógica computacional. Para materializar esta colaboración, la UPM ha puesto en marcha el Associated European Laboratory (LEA), un centro que tendrá su sede en el madrileó campus de Montegancedo y que potenciará la cooperación en áreas relacionadas con la lógica computacional, la ingeniería ontológica, agentes inteligentes, sistemas multi-agentes y la programación declarativa. Así lo ha indicado durante la presentación del centro David Pearce, profesor del Departamento de Inteligencia Artificial de la UPM y codirector del laboratorio junto a Luis Fariñas, director del Instituto de Investigación Informática de Tolouse (IRIT- Tolouse Institute for Informatics Research). El laboratorio impulsará métodos formales para la seguridad en computación. Según explica Luis Fariñas, codirector del LEA, “introducirá avances para el desarrollo de programas informáticos fiables, certificados como programas seguros”, un tipo de certificación “fundamental para sistemas críticos donde no se pueden permitir errores, por ejemplo en centrales nucleares o aviones”. La suma de los avances obtenidos por las entidades francesas y españolas “tendrá gran impacto en la productividad de la ingeniería y fiabilidad del software, dada su aplicación en áreas relacionadas con el sector aeronáutico y los dispositivos médicos”, afirma Fariñas. Algunas de las actividades que se realizarán en el laboratorio serán la participación conjunta en programas de investigación europeos, programas de doctorado, celebración de seminarios y talleres en Madrid y Toulouse, visitas programadas de profesores e incluso intercambios de personal investigador entre ambos países. Por otra parte, profesores e investigadores del Departamento de Lenguaje y Sistemas Informáticos e Ingeniería del Software de la Facultad de Informática y del Departamento de Ingeniería de Sistemas Telemáticos de la Escuela Técnica Superior de Ingenieros de Telecomunicación de la UPM componen el equipo de expertos que trabajará en la investigación científica en el Associated European Laboratory (LEA), junto a una representación de profesores e investigadores procedentes de los institutos de Toulouse. En la actualidad, los equipos de investigación involucrados en el laboratorio cooperan ya en proyectos europeos financiados por la Comisión Europea, entre ellos en el nuevo “European Network for Social Intelligence”. CONCLUSIONES. Como conclusión digamos que nuestro análisis de inteligencia nos indica que dicha propiedad conlleva la conjunción de tres parámetros: Capacidad: gran potencial para procesar determinado tipo de información. Tiempo: ejecución rápida de tal procesamiento. www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial Creatividad: invención de nuevos métodos de procesamiento. Las dos primeras hacen referencia al binomio hardware/software del que el mundo de la tecnología dispone, con sus limitaciones desde luego, hoy en día. La tercera es una línea de trabajo que todavía resta el que dé o pueda dar sus frutos. De su éxito o fracaso dependerá el futuro de la auténtica revolución pensante de las máquinas. Dentro del ámbito de las Ciencias de la Computación la IA es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en general, debido a que la búsqueda para comprender los mecanismos de la inteligencia, ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo. Dentro de las áreas de la IA lo que más ha atraído, es el aprendizaje de máquinas, resultando vital el proceso de emular comportamientos inteligentes. Que un sistema pueda mejorar su comportamiento sobre la base de la experiencia que recoge al efectuar una tarea repetitiva y que además, tenga una noción de lo que es un error y que pueda evitarlo, resulta apasionante. ¿Avance tecnológico o amenaza social? Al llegar a un perfeccionamiento tal de las máquinas, donde formen un grupo de seres capaces de construir -y al tiempo destruir- una sociedad, se corre el riesgo que tomen el lugar del hombre, que lo reemplacen tan fácilmente en todos los ámbitos que desarrolla, que este cambio progresivo podría verse como un hecho cotidiano, e incluso, necesario. Por ejemplo en el trabajo, si hay una maquina que puede resolver el más mínimo problema al interior de una empresa o fabrica, se prescindiría de la labor humana y solo se requeriría a aquel capaz de construir los robots, claro está, antes que estos se construyan a si mismos. Mientras se tome conciencia de la amenaza que puede constituir la implementación de estas máquinas "pensantes", se van a seguir buscando formas de perfeccionar la Inteligencia Artificial y ya se abren caminos hacia el mundo robotizado, con nuevas ideas teóricas y experimentales que en su clímax iluminen el camino para llegar a la verdadera inteligencia artificial. "Aunque parezca absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta centrado sobre todo en los chatterbots". ¿Pueden los computadores aprender a resolver problemas a partir de ejemplos? No hace tanto tiempo esta pregunta bordeaba la ciencia ficción, pero ahora es objeto de profundos y prometedores estudios. Las redes de neuronas formales son máquinas que poseen esta capacidad de aprendizaje. Son máquinas propuestas como modelos extremadamente simplificados del funcionamiento del cerebro que sienta las bases de un modelo colectivo, donde el sistema global presenta propiedades complejas que no pueden predecirse a partir del estudio individual de sus componentes. Los estudios teóricos de redes de neuronas reflejan estos dos aspectos: el de la modelización de fenómenos cognitivos y el del desarrollo de aplicaciones. Por ejemplo para una máquina, la clasificación de rostros, datos médicos o reconocimiento de letras son tareas difíciles, más que para un ser humano. La máquina necesita del aprendizaje, donde el asunto consiste en adaptar los parámetros de un sistema, en este caso artificial, para obtener la respuesta deseada. Los métodos tradicionales en IA que permitieron el desarrollo de los primeros sistemas expertos y otras aplicaciones, ha ido de la mano de los avances tecnológicos y las fronteras se han ido expandiendo constantemente cada vez que un logro, considerado imposible en su momento, se vuelve posible gracias a los avances en todo el mundo, generando incluso una nueva mentalidad de trabajo que no reconoce fronteras físicas ni políticas. Se entiende como un esfuerzo común. La comprensión de los mecanismos del intelecto, la cognición y la creación de artefactos inteligentes, se vuelve cada vez más una meta que sueño, a la luz de los enormes logros, tan solo en alrededor de medio siglo de desarrollo de las ciencias de la computación y de poner la lógica al servicio de la construcción de sistemas. La Inteligencia artificial es la capacidad de una máquina de pensar y actuar como el hombre, pero para lograr esto primero se debe conocer totalmente el funcionamiento del pensamiento humano. En el ámbito tecnológico la Inteligencia Artificial es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en general, debido a que la búsqueda para comprender los mecanismos de la inteligencia, ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo. Sin embargo, este avance tecnológico puede traer graves consecuencias como el desempleo, la veneración y el sometimiento por parte del humano. No se puede negar que la Inteligencia artificial traería grandes ventajas para el hombre; pero también se debe ser consciente de sus implicaciones negativas. La polémica desarrollada en el ensayo resulta importante en la reflexión acerca del mundo tecnológico globalizado de hoy y deja además de los supuestos anteriores, una idea clara y un poco fatalista pero real: No hay que crear una www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial maquina tan inteligente para que reemplace al humano en sus labores, sobre todo en una sociedad como la de hoy en día, basada en la técnica y la productividad, en la lógica y no en la racionalidad. Pero aun sin haber desarrollado completamente la inteligencia artificial, ya se ven las graves consecuencias sociales que trae consigo y es probable que al finalizar el análisis y la reflexión acerca de este tema, se evidencie que lo importante es salvarnos de nosotros mismos, pues sin el uso de la razón, los humanos pueden llegar a ser mucho más peligrosos. No se debe olvidar que hoy en día la creación de artefactos inteligentes, se vuelve cada vez más una meta que un sueño; implícitamente se vuelve más una amenaza social que un avance tecnológico. ______________________________________ Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática. Gits mira por tus derechos. Gits es Pro-Vida. Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado. Recomendamos la visualización de este documental: http://www.youtube.com/watch?v=SWRHxh6XepM. Gracias por su colaboración con el medio ambiente. Copyright (c) 2003. Gits Informática. All rights reserved.