Módulo 1 ÍNDICE PÁGINAS Unidad 1: Descripción de Inteligencia Artificial. 4 Introducción. 4 ¿Qué es Inteligencia Artificial? 5 ¿Qué es Machine Learning? 7 ¿Qué es Deep Learning? 8 Inteligencia Artificial vs Machine Learning. 9 ¿La IA es solo una moda más? 11 ¿La IA puede potenciar los ataques cibernéticos futuros? 13 La IA como herramienta para los atacantes. 15 La IA en el malware. 16 Limitaciones del Machine Learning. 18 Unidad 2: Inteligencia Artificial la tecnología del futuro. 22 Concepto de Inteligencia Artificial. 22 Historia de la Inteligencia Artificial. 25 La Inteligencia Artificial como motor del crecimiento. 28 ÍNDICE Unidad 3: Casos de éxito a nivel internacional. 32 Google. 36 IBM. 38 SAP. 41 Software libre para Inteligencia Artificial. 42 Unidad 4: Los principales modelos en IA. 45 Simbólico, Conexionista, Evolutivo y Corpóreo. 45 Hacia inteligencias artificiales realmente inteligentes. 52 Unidad 1: Descripción de Inteligencia Artificial. INTRODUCCIÓN La Inteligencia Artificial (IA) es un tema muy recurrente estos días. Es el eslabón principal en los argumentos de venta, “potencia” varios servicios online y se menciona en casi todos los productos nuevos al buscar inversores. Mientras que algunos proveedores realmente tratan de incorporar en sus productos el valor de esta tecnología para beneficio de sus clientes, otros solo la usan como una palabra de moda, pero no son capaces de cumplir sus promesas. Una simple búsqueda online de sus siglas en inglés (AI) hoy arroja casi 2.200 millones de resultados, lo que demuestra el gran interés tanto de los expertos como el público en general. Parte de la moda se puede atribuir a las grandes hazañas logradas gracias a esta tecnología (permitirles a los investigadores ver a través de las paredes), aunque también tiene connotaciones negativas, por ejemplo, se predice que la IA podría eliminar millones de puestos de trabajo y dejar obsoletas industrias enteras. El aprendizaje automático o Machine Learning (ML), como subcategoría del verdadero objetivo autosustentable de la IA, que aún dista mucho de ser alcanzado, ya ha desencadenado cambios radicales en muchos sectores, incluyendo el de la seguridad cibernética. Las mejoras en los motores de exploración, en la velocidad de detección y en la capacidad de identificar irregularidades fueron factores que contribuyeron a proteger mejor a las empresas, en especial frente a las amenazas nuevas y emergentes, así como las amenazas persistentes avanzadas (APT, del inglés). Desafortunadamente, esta tecnología no está disponible en forma exclusiva para los defensores de la seguridad. Los hackers de sombrero negro, los ciberdelincuentes y otros actores maliciosos también son conscientes de los beneficios de la IA y probablemente intentarán aplicarla a sus actividades de alguna forma. Es probable que los ataques dirigidos a empresas específicas y el robo de dinero o de datos comiencen a ser más difíciles de descubrir, rastrear y mitigar. Podríamos argumentar que estamos por comenzar una era en la que los “ataques cibernéticos potenciados por la IA” se convertirán en la norma y reemplazarán a aquellos operados por actores maliciosos altamente calificados. 4 Fuente: Cuando las máquinas hablan el mismo idioma, TEC. ¿Qué es Inteligencia Artificial? Dado que se trata de un concepto en constante evolución, resulta difícil ofrecer una definición que contemple sus múltiples facetas (Figura 1). Se puede afirmar que la IA es un campo de estudio enfocado en el desarrollo de capacidades en sistemas computacionales que se utilizan para realizar tareas previamente consideradas como exclusivas de la inteligencia humana, entre ellas razonar, aprender y resolver problemas, por mencionar solo algunas. La Organización para la Cooperación y el Desarrollo Económicos (OCDE) define la IA como “un sistema computacional que puede, para un determinado conjunto de objetivos definidos por humanos, hacer predicciones y recomendaciones o tomar decisiones que influyen en entornos reales o virtuales. Los sistemas de IA están diseñados para operar con distintos niveles de autonomía” (Cabrol et al., 2010:10). 5 Figura 1. Visión conceptual de alto nivel de la Inteligencia Artificial Fuente: Fuente: OECD (2019) En computación, la Inteligencia Artificial se trata de programas o bots diseñados para realizar determinadas operaciones que se consideran propias de la inteligencia humana. Se trata de hacer que éstos sean tan inteligentes como un humano. La idea es que perciban su entorno y actúen en base a ello, centrado en el auto-aprendizaje y que sean capaces de reaccionar ante nuevas situaciones. El sueño de los pioneros en Inteligencia Artificial era construir máquinas complejas, habilitadas por computadoras emergentes, que poseyeran las mismas características de la inteligencia humana. Este es el concepto que consideramos “genérico” de Inteligencia Artificial: maquinas fabulosas que tienen todos nuestros sentidos (tal vez incluso más), toda nuestra razón y piensan igual que nosotros. Podemos poner ejemplos de este concepto en películas como Star Wars (C-3PO) o Teminator. Claro está que este concepto genérico de máquinas de IA sólo queda en el imaginario del cine y de novelas de ciencia ficción por una buena razón: no podemos llevarlo a cabo, por ahora. Sin embargo, sí existen en la actualidad tecnologías que pueden realizar tareas específicas que normalmente requieren inteligencia humana, como la percepción visual, el reconocimiento de voz, la toma de decisiones y la traducción entre idiomas. Algunos ejemplos de este tipo de Inteligencia Artificial, en la actualidad, son cosas como la clasificación de imágenes similares en Pinterest o Google Images y el reconocimiento facial en Face ID en iPhone. 6 Fuente: Imágenes similares en Pinterest Estos son claros ejemplos de Inteligencia Artificial que exhiben algunas características de la inteligencia humana. Pero ¿cómo lo hacen? ¿De dónde viene esa inteligencia? Eso nos lleva al siguiente concepto, Machine Learning. ¿Qué es Machine Learning?. Machine Learning o aprendizaje automático es un subconjunto de Inteligencia Artificial en el campo de la informática que a menudo utiliza técnicas estadísticas para dar a las computadoras la capacidad de «aprender» (es decir, mejorar progresivamente el rendimiento en una tarea específica) con datos, sin estar explícitamente programadas. En otras palabras, el aprendizaje automático en su forma más básica es la práctica de usar algoritmos para analizar datos, aprender de ellos y luego hacer una determinación o predicción sobre algo en el mundo. Por lo tanto, la máquina está «entrenada» utilizando grandes cantidades de datos y algoritmos que le dan la capacidad de aprender a realizar la tarea por sí misma. El aprendizaje automático vino directamente de las mentes de los pioneros en Inteligencia Artificial. Resultó que una de las mejores áreas de aplicación para el aprendizaje automático, durante muchos años, fue la visión por computadora, aunque requería una gran cantidad de codificación manual para hacer el trabajo. La gente entraba y escribía clasificadores codificados a mano, como filtros de detección de bordes, para que el programa identificara dónde se inició y se detuvo un objeto; detección de forma para determinar si tenía ocho lados; o un clasificador para reconocer las letras «S-t-o-p». De todos los clasificadores codificados a mano, desarrollarían algoritmos para dar sentido a la imagen y «aprender» a determinar si era una señal de Stop, especialmente en un día de niebla cuando el cartel no es perfectamente visible o un árbol oscurece parte de él. Video: Así funciona el robot Da Vinci https://www.youtube.com/watch?v=ZYJaf25ZEAo&feature=youtu.be 7 Hay una razón por la que la visión por computadora y la detección de imágenes no se acercan a rivalizar con los humanos. Hasta hace poco, era demasiado frágil y propenso al error. Con el tiempo, los algoritmos de aprendizaje se corrigieron y marcaron una diferencia; esto nos lleva al siguiente concepto, Deep Learning. ¿Qué es Deep Learning?. Deep Learning o aprendizaje profundo es una técnica dentro del Machine Learning basado en arquitecturas neuronales. Un modelo basado en Deep Learning puede aprender a realizar tareas de clasificación directamente a partir de imágenes, texto o sonido, entre otros. Sin necesidad de intervención humana para la selección de características. Esto se puede considerar la principal ventaja del Deep Learning, llamada “feature discovering”. Pueden, además, poseer una precisión que supera a la capacidad del ser humano. El aprendizaje profundo es un subconjunto de aprendizaje automático en Inteligencia Artificial (IA) que tiene redes capaces de aprender sin supervisión a partir de datos que no están estructurados ni etiquetados. También conocido como Deep Neural Learning o Deep Neural Network. Aquí es donde reside la gran diferencia respecto al Machine Learning. Las Redes Neuronales Artificiales se inspiran en nuestra comprensión de la biología de nuestros cerebros, todas esas interconexiones entre neuronas. Pero, a diferencia de un cerebro biológico donde cualquier neurona se puede conectar a cualquier otra neurona dentro de una cierta distancia física, estas redes neuronales artificiales tienen capas discretas, conexiones y direcciones de propagación de datos. 8 Pueden, por ejemplo, tomar una imagen, cortarla en un grupo de teselas que se ingresan en la primera capa de la red neuronal. En la primera capa, las neuronas individuales pasan los datos a una segunda capa. La segunda capa de neuronas hace su tarea, y así sucesivamente, hasta que se produce la última capa y producción final. Cada neurona asigna una ponderación a su entrada: qué tan correcta o incorrecta es en relación con la tarea que se realiza. El resultado final se determina luego por el total de esas ponderaciones. Fuente: Vehículo autónomo de Google El Deep Learning ha permitido muchas aplicaciones prácticas de Machine Learning y, por extensión, el campo general de Inteligencia Artifical. El aprendizaje profundo desglosa las tareas de manera que hace que todo tipo de asistencia en máquinas parezca posible, incluso probable. Los automóviles sin conductor, una mejor atención médica preventiva, incluso mejores recomendaciones de películas, son claros ejemplos de aplicación. La Inteligencia es el presente y el futuro. Con la ayuda de Deep Learning, la Inteligencia Artificial puede llegar a ese estado de ciencia ficción que tanto tiempo hemos imaginado con Star Wars y Terminator. En la última década, las empresas están utilizando el aprendizaje profundo para resolver los desafíos a nivel empresarial. Desde la detección de rostros (Face ID) hasta recomendaciones de productos, segmentación de clientes, reorganización de dígitos, traducción automática, inteligencia de negocios, Internet de las cosas, seguridad de redes, entre otros. El uso del Deep Learning y Machine Learning han transformado por completo el mundo en el que vivimos hoy. Inteligencia Artificial vs Machine Learning. La idea de la Inteligencia Artificial existe desde hace más de 60 años. Representa el ideal aún inalcanzable de una máquina inteligente y autosustentable que puede aprender en forma independiente, basándose solo en las entradas del entorno (por supuesto, sin intervención humana). Sin embargo, hoy en día se suele usar el término “IA” para referirse solamente a una subcategoría de esta tecnología: a Machine Learning. 9 Este campo de la informática se originó en la década de 1990 y sus aplicaciones en el mundo real les permiten a las computadoras encontrar patrones en grandes cantidades de datos, analizarlos y actuar sobre los resultados. Estos algoritmos son el ingrediente no tan secreto de todos los productos de seguridad cibernética que mencionan la IA en sus propagandas de marketing. Supervisado, no supervisado o parcialmente supervisado. En el contexto de la seguridad cibernética, los algoritmos de Machine Learning se utilizan principalmente para clasificar y analizar muestras, identificar similitudes y generar un valor de probabilidad para el objeto procesado, de modo de clasificarlo en una de las tres categorías principales: malicioso, potencialmente no seguro o no deseado (PUSA/PUA, por sus siglas en inglés), o no infectado. Sin embargo, para lograr los mejores resultados posibles, es necesario “entrenar” esta tecnología usando un conjunto muy extenso de muestras no infectadas y maliciosas correctamente etiquetadas, lo que le permite al algoritmo comprender la diferencia. Esta capacitación y supervisión humana es la razón por la cual se denomina aprendizaje automático supervisado. Durante el proceso de aprendizaje, se le enseña al algoritmo cómo analizar e identificar la mayoría de las amenazas potenciales en el entorno protegido y también cómo actuar de manera proactiva para mitigarlas. La integración de este algoritmo en una solución de seguridad la hace significativamente más rápida y aumenta su capacidad de procesamiento, en comparación con otras soluciones que solo usan el conocimiento humano para proteger los sistemas del cliente. Los algoritmos que no se entrenan con datos completa y correctamente etiquetados pertenecen a la categoría de aprendizaje automático no supervisado. Son adecuados para encontrar similitudes y anomalías en el conjunto de datos que podrían escapar al ojo humano, pero no necesariamente aprenden cómo separar lo bueno de lo malo (o para ser más precisos, lo no infectado de lo malicioso). En la seguridad cibernética, esta puede ser una característica muy útil para trabajar con grandes conjuntos de muestras etiquetadas. El aprendizaje no supervisado se puede utilizar para organizar los datos en clústers y ayudar a crear grupos más pequeños, pero mucho más consistentes, para entrenar otros algoritmos. El aprendizaje automático parcialmente supervisado está entre las categorías de aprendizaje supervisado y no supervisado. En el proceso de aprendizaje del algoritmo solo se usan los datos parcialmente etiquetados, y los resultados son supervisados y ajustados por expertos humanos hasta lograr el nivel deseado de precisión. Este enfoque es necesario porque la creación de un conjunto de entrenamiento completamente etiquetado suele ser una tarea laboriosa, costosa y que lleva mucho tiempo. En otros casos, directamente no existen datos etiquetados en forma completa y correcta, por lo que el aprendizaje parcialmente supervisado es la única opción para generar un algoritmo útil. 10 ¿La “IA” es solo una moda más? Además de su uso científico original, el término Inteligencia Artificial también es una palabra de moda. Sin embargo, ¿qué tan exagerada es la publicidad? Gracias a los avances significativos en el campo de Machine Learning y su aplicación más amplia en problemas del mundo real, el interés en la IA creció mucho en los últimos años, y alcanzó picos en 2017 y 2018 que no se veían desde la última década. Esto queda demostrado al analizar las tendencias de búsqueda de los términos “Machine Learning” e “Inteligencia Artificial” en inglés. Figura No.XX: // Tendencia de búsqueda de los términos “Inteligencia Artificial” y “Aprendizaje Automático” en inglés de 2004 a 2018. Fuente: Tendencias de Google. Esto también aparece en entornos corporativos, donde el aprendizaje automático o la IA parecen estar ampliamente implementados, como se observó en la encuesta que ESET le encargó a OnePoll. Según los resultados, el 82% de los responsables de la toma de decisiones de TI en empresas estadounidenses, británicas y alemanas con más de 50 empleados creen que su organización ya ha implementado un producto de seguridad cibernética que utiliza Machine Learning. Del resto, el 53% declaró que su organización planea implementar este tipo de solución en los próximos 3-5 años, y el 23% indica lo contrario. El 80% de los encuestados también consideran que la IA y el ML ayudan o ayudarán a su organización a detectar y responder a las amenazas más rápidamente. Los tomadores de decisiones también creen que estas tecnologías los ayudarán a resolver la escasez de personal capacitado en seguridad cibernética para cubrir los puestos de su lugar de trabajo. 11 Con la gran cantidad de marketing en torno a la IA y al ML, muchos de los encuestados llegaron a pensar que estas tecnologías podrían ser la clave para resolver sus problemas más desafiantes de seguridad cibernética; sin embargo, la mayoría también expresó que las afirmaciones sobre la implementación de la IA y el ML en la infraestructura de seguridad les parecían exageradas. 12 Por lo tanto, sin menospreciar el verdadero valor de la IA y el ML como herramientas útiles en la lucha contra el delito cibernético, hay ciertas limitaciones que deben tenerse en cuenta, por ejemplo, que confiar en una sola tecnología es un riesgo que puede tener consecuencias perjudiciales, en particular cuando el atacante tiene la motivación, el respaldo financiero y el tiempo suficiente para lograr evadir un algoritmo de ML protector. Un enfoque más seguro y equilibrado para la seguridad cibernética corporativa es desplegar una solución de varias capas capaz de aprovechar el poder y el potencial de la IA y el ML, pero con el respaldo de otras tecnologías de detección y prevención. ¿La IA puede potenciar los ataques cibernéticos futuros? Los avances tecnológicos del aprendizaje automático les ofrecen un enorme potencial de transformación a los defensores de la seguridad cibernética. Desafortunadamente, no son los únicos: los ciberdelincuentes también son conscientes de los nuevos beneficios. La encuesta de OnePoll a casi 1000 participantes, entre gerentes y personal de TI responsables de la seguridad de empresas estadounidenses, británicas y alemanas, arrojó que: Dos tercios (66%) estuvieron de acuerdo en forma parcial o total en que las nuevas aplicaciones basadas en la IA incrementarán el número de ataques a su organización. Una cantidad incluso mayor de encuestados consideran que las tecnologías basadas en la IA harán que las amenazas sean más complejas y más difíciles de detectar (69% y 70% respectivamente). 13 Aún no sabemos si estas preocupaciones se van a materializar ni cómo. Sin embargo, no sería la primera vez que los atacantes utilizan los avances tecnológicos para ampliar el alcance de sus esfuerzos maliciosos. Ya en 2003, el troyano Swizzor (2) utilizó la automatización para volver a empaquetar el malware una vez por minuto. Como resultado, cada víctima recibía una variante polimórficamente modificada del malware, lo que complicaba su detección y permitía su mayor propagación. De todas formas, este enfoque no sería tan efectivo para evadir las soluciones antimalware modernas, hay equipos para endpoints, que detectan el “ADN” del malware y además pueden identificarlo mediante sus detecciones de red. Sin embargo, mediante el uso de algoritmos avanzados de Machine Learning, los atacantes podrían usar un mecanismo similar al de Swizzor e intentar mejorar su estrategia. Si esta tecnología no es parte de la medida defensiva, el algoritmo del atacante podría aprender cuáles son los límites de la solución protectora y alterar el código malicioso lo suficiente como para atravesar sus defensas. Las variantes automáticas del malware distan mucho de ser la única aplicación maliciosa posible de los algoritmos de Machine Learning. A continuación, analizamos algunas de las áreas en las que el uso de esta tecnología podría darles una ventaja a los atacantes (y añadimos algunos ejemplos ilustrativos). 14 La IA como herramienta para los atacantes. Los atacantes podrían utilizar la IA o el ML para: Proteger su infraestructura, por ejemplo: •Detectando intrusos (es decir, investigadores, defensores, cazadores de amenazas) en sus sistemas. •Detectando nodos inactivos y por lo tanto sospechosos en su red. Generar y distribuir nuevos contenidos, tales como: •Correos electrónicos de phishing diseñados y modificados en forma total o parcial por el algoritmo. •Spam de alta calidad gracias al Machine Learning, la creación de spam nuevo de alta calidad también sería posible para los idiomas menos frecuentes, según la cantidad de material de entrenamiento disponible. •Desinformación combinando automáticamente información legítima con desinformación, y aprendiendo qué es lo que funciona mejor y lo que más comparten las víctimas. •Identificar patrones recurrentes, rarezas o errores en el contenido generado y ayudar a los atacantes a eliminarlos. •Identificar posibles señales de alarma que probablemente buscarán los defensores. •Crear señales falsas para desviar la atención a otros actores o grupos. •Elegir el mejor objetivo para su ataque o repartir varias tareas entre distintas máquinas infectadas de acuerdo con su rol dentro de la red, sin la necesidad de una comunicación saliente. •Utilizar el modelo de la IA de la solución de seguridad como una caja negra con intenciones maliciosas. Los atacantes pueden instalar la solución de seguridad de la víctima en su propio dispositivo con la misma configuración y usarla para identificar qué tipo de tráfico o contenido atravesará sus defensas. Encontrar la técnica de ataque más efectiva Las técnicas de ataque pueden abstraerse y combinarse para identificar los enfoques más efectivos. Luego, estos enfoques se pueden priorizar para aprovecharlos en el futuro. En caso de que los defensores detecten y anulen a uno de los vectores de ataque, el atacante solo necesitará reiniciar el algoritmo y, basándose en esta nueva información, la tecnología seguirá una ruta de aprendizaje diferente. 15 Encontrar nuevas vulnerabilidades Combinando el enfoque anterior con el fuzzing (es decir, proporcionarle al algoritmo datos no válidos, inesperados o aleatorios como entradas), la IA podría aprender una rutina para encontrar nuevas vulnerabilidades. La IA en el malware. Los desarrolladores de malware podrían utilizar la IA para: Generar nuevas variantes de malware difíciles de detectar. Algunas familias de malware antiguas (por ejemplo, Swizzor) utilizaban la automatización para generar nuevas variantes de sí mismas cada minuto. Esta técnica podría reinventarse y mejorarse usando algoritmos de Machine Learning para aprender cuáles de las variantes recién creadas son las menos susceptibles de ser detectadas y así producir nuevas cepas con características similares. Ocultar su malware en la red de la víctima El malware puede monitorear el comportamiento de los nodos o las endpoints en la red objetivo y generar patrones que se asemejen al tráfico de red legítimo. Combinar varias técnicas de ataque para encontrar las opciones más efectivas que no puedan detectarse fácilmente y priorizarlas sobre alternativas menos exitosas. Ajustar las funcionalidades o el enfoque del malware en función del entorno Si por ejemplo los ciberdelincuentes quieren atacar navegadores, en lugar de incluir una lista completa de navegadores y posibles escenarios en el malware, solo necesitarán implementar algunos de ellos para las marcas más frecuentes. El algoritmo de IA utilizará esta capacitación y aprenderá directamente en la endpoint a infiltrarse también en los navegadores menos populares y no especificados previamente. Implementar un mecanismo autodestructivo en el malware que se active si detecta un comportamiento extraño Al detectar un inicio de sesión de un perfil de usuario o de un programa que no sean los estándares, el malware activa automáticamente el mecanismo de autodestrucción para evitar ser detectado o analizado. Detectar un entorno sospechoso Si el algoritmo detecta una máquina virtual, un modo sandbox o alguna otra herramienta utilizada por los investigadores de malware, puede alterar el comportamiento o detener temporalmente su actividad para evitar la detección. Aumentar la velocidad del ataque La velocidad de un ataque puede ser crucial, especialmente en casos como el robo de datos. Los algoritmos pueden realizar la extracción significativamente más rápido que un ser humano, lo que hace que sea más difícil de detectar y casi imposible de evitar, ya que la máquina copia los datos del perímetro protegido antes de que los defensores puedan reaccionar. Permitir que otros nodos de la botnet aprendan en forma colectiva e identifiquen las formas de ataque más efectivas. 16 Aprender y compartir información a través de múltiples nodos puede ser una gran ventaja para los atacantes, ya que cada uno de los bots de la red infectada puede probar diferentes técnicas de infiltración e informar los resultados. También puede servirles a los actores maliciosos para aprender más sobre la infraestructura objetivo en menos tiempo. La IA como parte de los ataques (dirigidos) al elegir sus objetivos, los atacantes podrían utilizar la IA para: •Decidir si vale la pena atacar al visitante Al monitorear el tráfico del sitio Web infectado, el algoritmo puede aprender y seleccionar los visitantes que constituyan los objetivos de ataque más valiosos e infectarlos con el malware. •Identificar una solución de protección específica El atacante externo puede hacer un reconocimiento de la red objetivo y, en función de las respuestas recibidas (o no recibidas), usar la IA para inferir información sobre las soluciones de seguridad empleadas por la organización objetivo. La IA como parte de los ataques en entornos móviles. Uso indebido de la popularidad de las aplicaciones móviles El algoritmo de Machine Learning puede identificar las apps con mods populares y crear su propio mod para modificarlas. Cuando los usuarios incautos descargan estas apps en sus dispositivos móviles, los infectan con malware. La IA en ataques dirigidos a la IoT: Los dispositivos de la Internet de las cosas, como los routers, las cámaras de seguridad y distintos tipos de controladores, son cada vez más numerosos. En general, las empresas que los utilizan subestiman el hecho de que estos dispositivos son en realidad pequeñas computadoras, y como tales son propensas a presentar vulnerabilidades y ser víctimas de su aprovechamiento por actores maliciosos. Además, los productos de la IoT baratos y mal diseñados a menudo carecen de medidas de seguridad básicas o sus credenciales predeterminadas son débiles: ambas deficiencias pueden permitir la fácil infiltración del malware. Los atacantes que desean infectar dispositivos de la IoT podrían utilizar la IA para: • Generar credenciales y usarlas para infiltrarse en otros dispositivos de la IoT similares. • Encontrar nuevas vulnerabilidades en los dispositivos de la IoT. • Si los dispositivos de la IoT son parte de una botnet, el algoritmo puede distribuirse entre todos los nodos para el aprendizaje colectivo. • Conocer los procesos y comportamientos estándar de dispositivos (o grupos) determinados, identificar malware de la competencia y eliminarlo, deshabilitarlo o inutilizarlo. Incluso la IA maliciosa tiene sus limitaciones. 17 Al igual que en cualquier otro campo, la aplicación de la IA en el malware y las actividades maliciosas tiene sus limitaciones. La más importante se documentó en el despliegue del infame Stuxnet, la primera arma cibernética utilizada in the wild. Esta familia de malware fue muy efectiva para infectar entornos protegidos e incluso IAslados por una barrera de IAre, lo que le permitió extenderse no solo en los sistemas específicos que quería atacar sino en todo el mundo. Sin embargo, su comportamiento tan agresivo llamó la atención de los investigadores de seguridad, que finalmente identificaron y diseccionaron la amenaza. Esto también podría aplicarse a futuros ataques basados en la Inteligencia Artificial. Con el creciente número de infiltraciones, estas amenazas también se volverían más frecuentes y, por lo tanto, visibles, atrayendo más la atención de los defensores de la seguridad, lo que en última instancia conduciría a su detección y mitigación. Limitaciones del Machine Learning. Hemos estado experimentando con varias formas de Machine Learning desde las primeras versiones del producto, y desarrollamos un sistema de detección automatizado que nos ayuda a proteger a nuestros clientes. Sin embargo, este proceso también nos mostró las limitaciones de la tecnología: Limitación número 1: Conjunto de muestras de entrenamiento. En primer lugar, para utilizar Machine Learning, se necesitan muchas muestras de entrada, cada una de las cuales debe estar correctamente etiquetada. En una aplicación de seguridad cibernética, esto implica tener una gran cantidad de muestras divididas en tres grupos: maliciosas, no infectadas y potencialmente no seguras o no deseadas. Una sola entrada incorrecta podría ocasionar un efecto en cadena y llegar a socavar la solución hasta el punto de hacerla fallar. La misma situación se produce si el algoritmo solo utiliza sus propios datos de salida como entradas para seguir entrenándose. En este caso, los errores se consolidan y multiplican, ya que el mismo resultado incorrecto vuelve a ingresar al algoritmo en un bucle y crea más falsos positivos (FP) o pasa por alto los elementos maliciosos. 18 Otra limitación de las soluciones que solo se basan en el ML o la IA es cuando los ciberdelincuentes deciden atacar una nueva plataforma, como un nuevo lenguaje de script o macro de una aplicación, o un nuevo formato de archivo. En este caso, puede llevar bastante tiempo reunir la cantidad suficiente de muestras “no infectadas” y “maliciosas” para crear un conjunto de entrenamiento. Limitación número 2: Las matemáticas no pueden resolverlo todo. Algunos fabricantes de seguridad afirman que algunas de estas limitaciones no se aplican a sus algoritmos de ML, ya que pueden identificar cada muestra antes de que se ejecute y determinar si es inofensiva o maliciosa simplemente haciendo cálculos matemáticos. Sin embargo, como lo demostró el famoso matemático, criptoanalista y científico informático Alan Turing (el hombre que rompió el código Enigma durante la Segunda Guerra Mundial en Bletchley Park en el Reino Unido), este enfoque no es matemáticamente posible. Ni siquiera una máquina perfecta sería siempre capaz de decidir si una entrada futura desconocida podría llegar a provocar un comportamiento no deseado (en el caso de Turing, sería el de hacer que la máquina reprodujera un bucle indefinidamente). Esto se denomina “problema de la parada” y se aplica a muchos otros campos además del de la informática teórica, donde se originó. Fred Cohen, el experto informático que definió los virus de computadoras, demostró la aplicación de este principio en la seguridad cibernética mediante otro problema indescifrable: es imposible decir con absoluta certeza si un programa actuará en forma maliciosa si solo se puede analizar durante un tiempo finito. El mismo problema se aplica a futuras entradas o comandos del atacante, que podrían convertir un programa en malicioso. Por lo tanto, siempre dude cuando un proveedor afirma que su algoritmo de Machine Learning es capaz de etiquetar todas las muestras antes de ejecutarlas (es decir, mediante su ejecución previa) y decidir si son maliciosas o no. Cuando se utiliza un enfoque de este tipo, es necesario bloquear preventivamente una gran cantidad de elementos dudosos, lo que desborda con falsos positivos a los departamentos de seguridad informática de las empresas. La otra opción sería que utilicen una detección menos agresiva que genere menos falsos positivos; pero si solo se aplica la tecnología de Machine Learning, las tasas de detección se alejarían mucho de la supuesta eficacia infalible del “100%” que estos fabricantes promocionan. Limitación número 3: Adversario inteligente y adaptable. Otra limitación importante de los algoritmos de Machine Learning en la seguridad cibernética es el adversario inteligente. La experiencia nos enseña que contrarrestar los ataques cibernéticos es como un juego interminable del gato y el ratón. La naturaleza cambiante del entorno de seguridad cibernético hace que sea imposible crear una solución protectora universal capaz de contrarrestar todas las amenazas futuras. El aprendizaje automático no modifica esta conclusión. 19 Es cierto que las máquinas se han vuelto lo suficientemente inteligentes como para derrotar a los humanos en el ajedrez; sin embargo, estos juegos se basan en reglas estrictas. En cambio, en la seguridad cibernética, los atacantes no siguen pautas ni aceptan limitaciones. Incluso pueden cambiar el campo de juego completo sin ninguna advertencia. Un buen ejemplo son los automóviles sin conductor. A pesar de la gran inversión en su desarrollo, estas máquinas inteligentes no pueden garantizar el éxito en el tráfico real. Trabajan en áreas limitadas y entornos específicos. Pero imagine qué pasaría si alguien tapara o manipulara las señales de tráfico, o recurriera a actos maliciosos sofisticados, como hacer que los semáforos parpadeen a una velocidad que escapa el reconocimiento humano. Con este tipo de alteraciones en los elementos más críticos del entorno, los autos podrían comenzar a tomar malas decisiones, lo que podría provocar accidentes fatales. En el ámbito de la seguridad cibernética, la esteganografía es un ejemplo de dicha actividad maliciosa. Los atacantes esconden su código malicioso en archivos inofensivos, como imágenes. Al enterrar el código profundamente entre los píxeles, el archivo (infectado) logra engañar a la máquina, dado que la forma alterada es casi indistinguible de su homólogo no infectado. Del mismo modo, la fragmentación también puede hacer que una detección basada únicamente en un algoritmo de Machine Learning devuelva una evaluación incorrecta. Los atacantes dividen el malware en partes y las ocultan en varios archivos separados. Cada uno de ellos es inofensivo en forma individual; recién cuando convergen en una end point o red comienzan a demostrar un comportamiento malicioso. En tales casos, no hay señales de alarma durante la ejecución previa. Limitación número 4: Falsos positivos. Se sabe que los cibercriminales trabajan arduamente para evitar la detección y la sofisticación de sus métodos exceden los ejemplos ya mencionados. Usan sus habilidades para ocultar el verdadero propósito de su código “cubriéndolo” mediante la ofuscación o el cifrado. Si el algoritmo no ve más allá de esta máscara, puede tomar una decisión incorrecta. Dejar pasar un elemento malicioso como no infectado o bloquear uno legítimo tiene consecuencias negativas importantes. Aunque es comprensible por qué un malware no detectado representa un problema para una empresa, es menos obvio con los falsos positivos, que son los errores cometidos cuando una solución de seguridad etiqueta incorrectamente los artículos inofensivos como maliciosos. No todos los falsos positivos necesariamente conducen al colapso total de la infraestructura de TI de una empresa. Pero algunos de ellos pueden interrumpir la continuidad del negocio y ser potencialmente más destructivos que una infección de malware. Un falso positivo en una fábrica automotriz que etiquetó incorrectamente parte del software de gestión de la línea de producción como malicioso podría interrumpir la producción, provocar demoras masivas, generar un gasto de mi- 20 llones de dólares en daños financieros y afectar la reputación de la empresa. De todas formas, no es necesario que los falsos positivos rompan procesos críticos para que las organizaciones o su personal de seguridad de TI quieran evitarlos a toda costa. Con decenas o cientos de falsas alarmas diarias (que bien puede ser el caso con una solución de seguridad basada puramente en ML), a los administradores solo les quedan dos opciones: 1. Mantener la configuración estricta y perder días de trabajo solucionando los falsos positivos. 2. Reducir el nivel de protección, lo que puede ocasionar una menor capacidad de detección y crear nuevas vulnerabilidades en la infraestructura de la empresa. Este escenario puede ser provocado y aprovechado fácilmente por un atacante con experiencia cuando la solución de seguridad es demasiado agresiva. Limitación número 5: El aprendizaje automático solo no es suficiente. Crear defensas efectivas de seguridad cibernética para la red corporativa es similar a proteger una casa. Los propietarios que desean mantener sus hogares seguros deben instalar tantas capas de protección como sea posible, por ejemplo, poner rejas fuertes, cámaras de seguridad, alarmas sonoras y detectores de movimiento en los rincones oscuros. El enfoque que se debe usar en el entorno corporativo es similar. Sería imprudente confiar en una sola tecnología, por más que sea el último algoritmo de Machine Learning. Con todas sus limitaciones, es necesario usar otras capas protectoras para mantener las endpoints y otros sectores cruciales de la red seguros. En el entorno de seguridad informática actual, la protección perimetral por sí sola no es suficiente. Se necesitan herramientas adicionales y más elaboradas, como sistemas de detección y respuesta para endpoints (EDR), inteligencia de amenazas, y herramientas que permitan el análisis rápido y confiable de los elementos sospechosos, de modo de proporcionarles a los departamentos de seguridad corporativos los registros y la información forense necesarios. En consecuencia, si una empresa pretende construir defensas de seguridad cibernética confiables y sólidas, debe seleccionar una variedad equilibrada de soluciones y herramientas que ofrezcan múltiples tecnologías complementarias con altas tasas de detección y un bajo número de falsos positivos. Para volver a la metáfora del hogar: un sistema complejo de seguridad que detecte a los ladrones pero que no haga sonar la alarma cuando el gato del vecino cruce caminando por el jardín. 21 Unidad 2: Inteligencia Artificial la tecnología del futuro. Concepto de Inteligencia Artificial. La Inteligencia Artificial llamada IA (por sus siglas en inglés) “es considerada una de las ramas de las ciencias de la computación dedicada al desarrollo de herramientas racionales para la resolución óptima de problemas, relacionada con la automatización del comportamiento inteligente”1. Esta línea de investigación nació en los años cincuenta cuando Alan Turing propuso una prueba para definir de manera operacional la inteligencia, basada en la capacidad de diferenciar entes humanos y artificiales. De esta prueba surgieron 4 de las áreas más importantes de la Inteligencia Artificial: El procesamiento del lenguaje natural, La representación del conocimiento, El razonamiento y El aprendizaje automáticos. Otro campo que ha sido relacionado a la Inteligencia Artificial es la resolución de problemas, ya que en este se utilizan algoritmos basados en IA para buscar la solución óptima a un determinado problema. No obstante, la Inteligencia Artificial ha sido definida de diferentes maneras a través de la historia y de su desarrollo, dependiendo del enfoque que le han dado los investigadores para sus diferentes usos; empero, siempre ha girado en torno al concepto de inteligencia. Entre las definiciones alternas de la IA se encuentra que “es el estudio de la de la inteligencia como proceso”2. En esta definición lo más importante es el estudio de la inteligencia y no la automatización a través de sistemas computacionales o de la automatización de procesos. Un concepto antagónico a la anterior es la que da ElIAne Rich y Kevin Knigth en su libro Inteligencia Artificial, en el cual conciben la IA como “el estudio de cómo hacer que los ordenadores hagan cosas que por el momento las personas realizan de una forma más perfecta”3. Esta definición está enfocada en los ordenadores y en su capacidad para reproducir comportamientos humanos. De este concepto nace el teorema de Tessler que dice que IA es cualquier cosa que los ordenadores son incapaces de hacer. Hoy la Inteligencia Artificial pretende replicar y superar el comportamiento de los seres humanos para desarrollar ciertas tareas. Por ejemplo, en el ajedrez, en el reconocimiento de imágenes, en el reconocimiento de voz en condiciones adversas y el reconocimiento de los regionalismos. La evolución de los sistemas y máquinas en el área de la Inteligencia Artificial ha pasado de realizar tareas naturalmente humanas, como el reconocimiento de facciones a tomar decisiones basadas en información con tecnologías como el Big Data, Minería de Datos y el Bussiness Inteligence entre otras. Entre las ramas que aplican Inteligencia Artificial hay 4 que destacan: Machine Learning (ML) o Aprendizaje Automático, reconocimiento de patrones, sistemas autónomos y robótica. 1 Espino, L. (2016). Inteligencia Artificial. Ciudad de Guatemala: Guatemala. 2,3 Amador, L. (1996). Inteligencia Artificial y Sistemas Expertos. España, Córdoba: Universidad de Córdoba, Servicio de Publicaciones. 22 En palabras simples, el Machine Learning es hacer que un ordenador adquiera conocimiento de cierta área de manera automática. Por ejemplo, permitiendo que un ordenador reconozca lo que es un perro. Para que una computadora sepa lo que es un perro se puede desarrollar un programa que reconozca a un perro a partir de una imagen, no obstante, no existe un único tipo de perro. Los perros se clasifican en razas, según las mezclas de razas, tamaños, colores, pelajes y características diferentes, por lo que hacer un programa que reconozca un perro basado en una imagen se vuelve inútil en la misión de identificar lo que es un perro. Es aquí donde interviene el Machine Learning que basado en la Inteligencia Artificial crea un modelo que se cimienta en características generales que asocia a un determinado concepto. Volviendo al ejemplo del perro con esta técnica se “entrena” a la máquina con múltiples imágenes de diferentes perros hasta que el ordenador relacione las características generales de un perro al concepto de perro. Una variación de Machine Learning es el Deep Learning que utiliza redes neuronales para que los ordenadores pueden aprender a partir de información no estructurada y sin supervisión. Es decir, a partir de datos crudos, no se le da a la máquina a un entrenamiento supervisado. El Deep Learning utiliza millones de datos para poder aprender sobre un determinado tema de forma más similar a la que aprende un humano y con ello poder imitar comportamientos humanos como el reconocimiento facial, el procesamiento de lenguaje natural, pero en comparación con las personas un ordenador, puede procesar millones de datos en velocidades que son imposibles para los seres humanos, por lo que pueden hacer predicciones basados en información ágil y pertinente teniendo así un mayor grado de certeza y precisión en las mismas. El desarrollo de Machine y Deep Learning ha permitido el reconocimiento de patrones que es otra técnica basada en IA y cuyos usos son múltiples y van desde la traducción en tiempo real, análisis de sentimientos y comportamientos en diferentes entornos. Estos pueden ser utilizados para mejorar el campo de la comunicación, hacer análisis estratégicos en los negocios e incluso ayudar a mejorar los diagnósticos médicos mediante el uso de lecturas de patrones. También la capacidad de aprendizaje en una máquina permite crear sistemas autónomos que son dispositivos que generalmente incorporan el internet de las cosas y big data , para manipular objetos y tomar decisiones en espacios reducidos, un ejemplo de sistemas autónomos son los automóviles sin conductor que utilizan los datos sobre forma de conducción correcta, leyes de transito señales, GPS, entre otras bases de datos y tecnologías, para lograr que un automóvil sin conductor sepa cuando debe detenerse, cuando puede seguir y hacia donde es una vía. Un paso más allá del Machine y Deep Learning está la robótica que es una de las ramas de la IA más avanzadas, en donde la máquina no solamente tiene la capacidad de aprender e imitar comportamientos inteligentes desde un punto de vista cognitivo, sino que puede realizar tareas físicas gracias a que está dotado por hardware que le permite realizar movimientos. 23 El hardware del que se le dota no necesariamente debe ser parecido al de un ser humano, ni tampoco debe ser de una movilidad completa, por ejemplo, los brazos robóticos hechos para realizar los movimientos de los brazos humanos o el robot mesero mencionado al principio de este capítulo que tiene la capacidad de movimiento, pero no tiene una forma humana. El desarrollo de la IA y todas sus ramas ha sido posible gracias a la creación de tecnologías complementarias como el almacenamiento y el procesamiento de la información en la nube, que permite procesar y almacenar mayores volúmenes de datos en un menor tiempo. Sin estas tecnologías complementarias la IA tendría un rango de acción muy limitada ya que se necesitan de grandes cantidades de información para entrenar a las máquinas y permitir su capacidad de aprendizaje y con ello la habilidad de imitar comportamientos inteligentes. Fuente: BID, Algoritmo Landia, 2018. 24 Historia de la Inteligencia Artificial. En la siguiente figura se presenta un resumen de dichos acontecimientos, los cuales serán ampliados posteriormente. Fuente: Prosic, 2019 El nacimiento de la IA como una ciencia se puede referenciar en 1950 con la publicación de Alan Turing "Computing Machinery and Intelligence", “publicado en el volumen 59 de la revista Mind. En este artículo se profundiza sobre la posibilidad de que una máquina pueda imitar el comportamiento de la mente humana. En este mismo artículo se propone la conocida prueba de Turing, orientado a demostrar si una determinada máquina es inteligente o no.4” El segundo hito importante para el desarrollo de la IA como ciencia se da en 1956 cuando se realiza en Dartmouth, la conferencia Dartmouth Summer Research Conference on Artificial Intelligence, en la que participaron Marvin L. Minsky y Claude E. Shannon Herbert Simon y Allen Newell, entre otros. El encuentro tuvo una duración de dos meses y en él se establecieron directrices y líneas de actuación futuras en el estudio y desarrollo de la IA, “tomando como hipótesis de trabajo la proposición: Todo aspecto de aprendizaje o cualquier otra característica de inteligencia puede ser definido de forma tan precisa que puede construirse una máquina para simularlo5.” En esta conferencia se definieron 7 pilares de investigación dentro del campo de la Inteligencia Artificial, que son: 1. Computadoras automáticas: En este pilar se busca investigar cómo aprovechar toda la capacidad de los ordenadores en ese momento y se especifica que la misma capacidad de estos ordenadores limitará la habilidad de una máquina de poder imitar un comportamiento inteligente. 2. Como programar una computadora usando lenguaje natural: Se basan en la premisa de que parte del pensamiento humano consiste en el lenguaje, sus elementos y reglas, por lo que se considera necesario crear ejemplos e investigar como insertar el lenguaje natural en la programación ya que al momento era un campo desconocido. 4,5 Crespo, R., Villena, J., & García, J. (2012). Historia de la Inteligencia Artificial. Recuperado de http://ocw. uc3m.es/ingenieriatelematica/inteligencia-enredes-de-comunicaciones/material-de-clase-1/01- historia-de-la-inteligencia-artificial el 20 de agosto de 2018. 25 3. Redes Neuronales: Plantea el problema de cómo organizar una red de neuronas hipotéticas para formar conceptos. 4. Teoría del tamaño de un cálculo: Este pilar expone la necesidad de investigar métodos eficientes para grandes cálculos y su nivel de complejidad, así como el de los dispositivos de cálculo. 5. Auto mejora: Se propone el estudio de cómo lograr que una máquina lleve a cabo actividades de “autosuperación.” 6. Abstracción: Para este pilar se propone investigar, clasificar y describir los métodos para que una máquina pueda formar abstracciones a partir de datos sensoriales y de otro tipo. 7. Aleatoriedad y Creatividad: Plantea indagar el uso de la aleatoriedad y la creatividad de forma guiada y ordenada. Las décadas comprendidas entre 1960 y 1980 son conocidas como la época oscura en la investigación sobre IA ya que las expectativas de los resultados eran muy altos y las capacidades de procesamiento de los equipos insuficientes. Además, se presentó un problema complejo para el procesamiento del lenguaje natural, ya que para que un ordenador pudiera reconocer imágenes o palabras se necesitaba grandes cantidades de información para entrenarla e identificar dichos objetos; durante esas décadas no estaban disponibles las herramientas necesarias para procesar grandes cantidades de información. En este contexto surgen pensadores como John Searl en 1970 quien postula que una computadora no puede reconocer los símbolos con los que se comunica por lo que argumenta que la misma no puede pensar con similitud a un humano como postuló anteriormente Turing hablando en términos de simbología. John McCarthy con una corriente de pensamiento diferente estudia cómo opera el cerebro humano y la forma en que los humanos piensan, por lo que determina que los anteriores no son directamente relevantes para la Inteligencia Artificial ya que él pensaba que realmente se necesitaban máquinas que pudieran resolver problemas y no qué pensarán como las personas lo hacen. No obstante, también existen detractores de dichas teorías como Minsky quién pensaba que era necesario que los ordenadores piensen como humanos para reconocer objetos y conversaciones. Por lo que se da una discusión teórica de cómo debe proseguir la investigación y el desarrollo de la Inteligencia Artificial. Sin embargo, esta discusión no impidió que durante esas décadas se dieran algunos avances e hitos importantes para el desarrollo de la IA. En 1961 aparece la publicación “Pasos Hacia la Inteligencia Artificial” un artículo académico que aborda el problema que enfrenta la investigación en el área de la IA, la necesidad de tener una base teórica, de las posibilidades de las máquinas de aprender y de las posibilidades que ofrece hasta ese momento la programación. 26 Para 1966 en el Massachusetts Institute of Technology (MIT) el profesor Joseph Weizenbaum crea Eliza uno de los primeros programas en procesar lenguaje natural que funcionaba reconociendo palabras o frases claves para que según la pregunta hecha se mostrará la respuesta preprogramada, dando la ilusión de que la máquina estaba interactuando con el ser humano. A pesar de todos los avances hechos, en 1972 empiezan los cuestionamientos a este nuevo campo de las ciencias de la computación. En ese año Hubert L. Dreyfus un filósofo estadounidense escribe el artículo What computers cant do4 en el cual se cuestiona hasta donde puede una computadora ser “inteligente” ya que él considera que para que un dispositivo sea realmente inteligente debe de tener un cuerpo similar y estar inmerso en una sociedad más o menos como la nuestra ya que el conocimiento se obtiene no solo de las experiencias particulares sino también de las colectivas. Sin embargo, entre 1979 y 1987 la IA vuelve a tomar relevancia cuando una computadora vence al campeón mundial de backgammon Luigi Villa, con el programa BKG 9.8 creado por el profesor Hans Berliner de la Universidad Carnegie Mellon. En 1981 aparece el proyecto del gobierno de Japón Quinta Generación, el más ambicioso hasta ese momento en IA y buscaba que las máquinas conversaran, tradujeran, interpretaran imágenes y razonaran como seres humanos. En 1987 Martin Fischles y Oscar Firschein describen los atributos de un agente inteligente y consideran que estos van más allá de la capacidad de comunicación entre los ordenadores y los humanos, abriendo nuevas líneas de investigación. No obstante, en 1992 vuelve a disminuir el apoyo a la investigación en IA con el fracaso de algunos proyectos entre los que destaca Quinta Generación del gobierno japonés que a pesar de tener 11 años de desarrollo no logra alcanzar sus objetivos por lo que es cerrado. Además de los cuestionamientos realizados a la investigación de la IA, los fracasos de los proyectos estrellas, los científicos dedicados a este campo se enfrentan a las limitaciones que tienen las computadoras, la necesidad de grandes bases de conocimiento, la dificultad de computar las habilidades sensoriales y motoras básicas y de replicar comportamientos humanos básicos, para el desarrollo y evolución de la IA, por lo cual entre 1992 y el 2005 pierde importancia y son escasos los desarrollos relacionados a esta área. Una de las pocas iniciativas en este período se da en 1997 cuando IBM crea Deep Blue un ordenador que en su segundo partido de ajedrez le logro ganar a Garri Kaspárov campeón del mundo. Pero en la década de los 2000 con la ampliación de las capacidades de las computadoras y el desarrollo de la computación de la nube, la IA retoma importancia. Se desarrollan tecnologías como el Big Data, Machine Learning, Deep Learning, el Internet de las cosas, se avanza en el campo de la robótica y permite el surgimiento de proyectos exitosos en esta materia. 27 En el 2005 la Universidad de Stanford gana una competencia cuando un auto autónomo conduce 212 km en el desierto sin apoyo de un humano, mientras que en 2011 aparece Watson uno de los desarrollos más sonados en esta materia por parte de IBM y que es una Inteligencia Artificial con capacidad de análisis de datos que ha impulsado otros desarrollos en esta materia y que obtuvo notoriedad al ganar el famoso concurso Jeopardi a los campeones del programa. Cabe destacar que Watson es una Inteligencia Artificial que aún está en entrenamiento ya que para cada nuevo campo que se desee agregar al conocimiento de Watson es necesario darle un nuevo aprendizaje. También en ese año Apple lanza Siri el primer asistente virtual que es capaz de entender órdenes humanas a través del procesamiento del lenguaje natural. En 2014 aparece Eugene un programa que casi supera la prueba de Turing creado por Vladimir Veselov y a Eugene Demchenko desarrollado en San Petersburgo, Rusia. Este logró convencer a un 33% de los usuarios que conversaban con un niño de 13 años humano. En esta misma línea de interacción humano – computador a través del lenguaje natural, en 2016 Microsoft lanza Tay una plataforma diseñada para mantener conversaciones informales en redes sociales dirigidas a un público meta de entre 18 y 24 años. No obstante, esta tuvo que ser retirada del mercado 24 horas después de su lanzamiento por comentarios racistas y xenófobos. En ese mismo año Google lanza un programa basado en Deep Learning 5 AlphaGo que vence al campeón mundial del juego Go6 .Sin embargo, Google retiró el programa en 2016 para explorar nuevas aplicaciones de la IA en otras áreas. La Inteligencia Artificial como motor del crecimiento. Para algunos la Inteligencia Artificial es considerada como el nuevo factor de la producción que propulsará el crecimiento económico en los años venideros a través de tres vías: la automatización inteligente, el enriquecimiento del capital y el trabajo y la difusión de las innovaciones. La diferencia entre la automatización que ofrece la IA con respecto a las soluciones convencionales, es que la IA puede emplearse en tareas más complejas que requieren adaptabilidad y agilidad. La tecnología de automatización tradicional está orientada a tareas concretas. Por el contrario, la segunda característica de la automatización inteligente basada en IA es su capacidad de resolver problemas relacionados con diferentes industrias y tipos de trabajo. La tercera característica de la automatización inteligente (y la más potente) es el autoaprendizaje, que se obtiene mediante la reproductibilidad a escala6. El enriquecimiento del capital y el trabajo se refiere a que “una buena parte del crecimiento económico basado en IA no se deberá a la sustitución del capital y el trabajo existentes, sino al hecho de que permite usarlos con mucha más eficacia7.” 6,7, Daugherty, P., & Purdy, M. (2017). IA-IndustryGrowth-Full-Report. Recuperado de https://www. accenture.com/ t20171005T065828Z__w__/ us-en/_acnmedia/Accenture/next-gen-5/insightIA-industry-growth/pdf/Accenture-A 28 La IA “enriquece el trabajo, ya que complementa las capacidades humanas y ofrece a los empleados nuevas herramientas con las que pueden aumentar su inteligencia natural8.” Por último, IA también puede aumentar la eficiencia del capital, algo muy importante en industrias en las que representa un gran costo hundido. La difusión de innovaciones es “una de las ventajas de la Inteligencia Artificial de las que menos se habla es su capacidad de impulsar la innovación a medida que penetra en la economía9.” Tomemos el ejemplo de los vehículos sin conductor. Mediante una combinación de láseres, sistemas de posicionamiento global, radar, cámaras, visión por ordenador y algoritmos de aprendizaje automático, estos vehículos pueden detectar lo que ocurre a su alrededor y actuar en consecuencia. En este mercado no solo están entrando empresas de Silicon Valley, sino que también las empresas tradicionales tratan de establecer nuevas alianzas para seguir siendo competitivas. BMW, por ejemplo, está colaborando con el gigante chino de Internet BIAdu, mientras que Ford colabora con el Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Stanford. Dado que la innovación genera más innovación, el impacto potencial de los vehículos sin conductor sobre las economías podría ir mucho más allá de la industria del automóvil. Incluso los operadores móviles podrían ver cómo aumenta la demanda de sus servicios, ya que los conductores, con libertad para dedicarse al ocio durante los viajes, pasarán más tiempo explorando Internet. Eso a su vez podría crear nuevas oportunidades de publicidad para los proveedores de servicios y oportunidades de venta para sus socios minoristas10.” Fuente: Accenture y Frontier Economics En un estudio realizado por Accenture y Frontier Economics se proyecta que el crecimiento de la Economía en el 2035 para Brasil, Chile, Perú y Colombia puede rondar en 1 punto porcentual en términos de valor agregado bruto. Como se puede observar en la siguiente figura, la IA tiene mayor potencial de hacer crecer una economía en países de mayor desarrollo como Estados Unidos, no obstante, ayudar a que economías menos desarrolladas -como la de Perú- crezcan. 8,9,10 Daugherty, P., & Purdy, M. (2017). IA-IndustryGrowth-Full-Report. Recuperado de https://www. accenture.com/ t20171005T065828Z__w__/ us-en/_acnmedia/Accenture/next-gen-5/insightIA-industry-growth/pdf/Accenture-A 29 Pero para lograr alcanzar los niveles de crecimiento proyectado en el gráfico anterior, es necesario preparar a las nuevas generaciones en competencias técnicas para el desarrollo de sistemas laborales basados en IA entre las que destacan la robótica, la visión artificial y el reconocimiento de patrones. Según el estudio "Cómo la Inteligencia Artificial impulsa las ganancias y la innovación de la industria" se estima que para el 2035 con la incorporación de la IA en diferentes sectores productivos, estos podrían crecer económicamente de la siguiente manera: Como se puede observar en el siguiente cuadro los sectores que tienen un mayor potencial de crecimiento económico son: manufactura, utilidades y financiero, los cuales crecerían alrededor de 2 puntos porcentuales sí agregan IA a sus procesos productivos. Una característica que tienen un común estos sectores es una alta cantidad de tareas que pueden ser automatizadas con la IA, aspecto que permitiría que el personal que trabaja en estas industrias se dedique a tareas de un mayor valor agregado, maximizando el valor del trabajo y con ello ser más eficiente la producción. Industria Educación Línea Base Crecimiento con IA 0.9 1.6 Hospedaje y Servicios de comida 1.4 3.2 Construcción 2.3 3.4 Ventas al por mayor y menos 2 4 Salud 2.3 3.4 Agricultura y pesca 1.3 3.4 Servicios Sociales Transporte y almacenamiento 1.6 2.1 2.8 4 Manufactura 2.1 4.4 Otros servicios 0.7 1.7 Servicios financiero 2.4 4.3 Servicios públicos 0.9 2.3 Arte, entrenamiento y recreación Servicios profesionales 1.9 2.3 3.1 3.8 Información y Comunicación 3.4 4.8 Utilidades 1.4 3.4 Fuente: Elaboración PROSIC con base a Purdy y Daugherty, 2017 30 Según el cuadro anterior otros sectores que se podrían ver muy beneficiados con la incorporación de la IA en sus procesos son los de hospedaje y servicios de comida, agricultura y pesca y otros servicios, que sin la IA proyectan un crecimiento muy bajo de no más de 1.4 puntos porcentuales, mientras que con la integración de IA podrían alcanzar hasta 3.4 puntos. En este mismo estudio los investigadores estiman que la “IA tiene el potencial de aumentar la tasa de rentabilidad en un promedio de 38% para el 2035 en 16 industrias11” a través de 3 canales de la automatización inteligente, el aumento del trabajo y capital y la difusión de la innovación. Para lograr preparar el mercado para este cambio es necesario fortalecer los ecosistemas vinculando los startups, la academia, las grandes compañías y los organismos gubernamentales con el fin de crear una red de innovación, y producción que este regulada de la manera correcta, democratizando la tecnología y asegurando la protección de los datos de los usuarios de los sistemas basados en IA. Lamentablemente no fue posible encontrar un país en el que exista una legislación enfocada específicamente en Inteligencia Artificial. Otro punto importante para preparar a las nuevas generaciones es promover un código de ética para el desarrollo de la IA ya que más comúnmente este tipo de tecnología está ligada a las actividades clasificadas anteriormente como netamente humanas. Este código se vuelve cada vez más necesario si se piensa que la Inteligencia Artificial es desarrollada por personas que pueden incluir sus sesgos en los algoritmos. Adicionalmente al aprender de manera no supervisada y tomando en cuenta que esta puede aprender comportamientos o conocimientos perjudiciales para un sector especifico de la población. Por ejemplo, se pueden crear programas con prejuicios racistas u homofóbicos que asignen beneficios en base al color de piel de una persona y no a criterios objetivos. Uno de los pasos más importantes en dicha preparación es minimizar los riesgos sociales ya que una de las mayores preocupaciones de la sociedad con respecto al fortalecimiento de la IA, es la potencial pérdida de puestos de trabajo, el agrave la inequidad en la sociedad y la disminución de ingresos a los hogares provocada por la pérdida de empleos. Si bien en la mayoría de los casos la IA va a potenciar el trabajo realizado por el recurso humano –por ejemplo el como “el 84% de los gerentes de 14 países creen que la IA los hará más eficientes y tornará a los trabajos más interesantes12”; también es cierto que van a haber puestos de empleo que van a ser reemplazados como los agentes de centros de llamadas que pueden ver disminuidas sus oportunidades laborales por la aparición de chat bots8 que contestan dudas de los clientes a través de canales digitales y sin la necesidad de la intervención de un humano para emitir una respuesta. 11 Daugherty, P., & Purdy, M. (2016). Inteligencia Artificial el Futuro del Crecimiento. Recuperado de https://www.accenture.com/ t00010101T000000Z__w__/ve-es/_acnmedia/ PDF-16/Accenture_Inteligencia_artificial_el-futuro-del_crecimiento_esp.pdf 12 Banco Interamericano de Desarrollo & Instituto para la Integración de América Latina y el Caribe. (2018). AlgrotimoLandia: Inteligencia Artificial para una Integración Predictiva e Inclusiva de América Latina. Buenos IAres, Argentina: BID: Impreso en Gráfica Latina S.A., Av. Constituyentes . 31 En este punto los responsables de las políticas públicas deben intervenir y crear políticas que ayuden a disminuir el impacto en las poblaciones más vulnerables, tales como oportunidades de capacitación y educación que potencien a este sector para acceder a los nuevos nichos laborales que puede abrir el desarrollo de la IA. En ese sentido, la formación y la educación se vuelven indispensables. En el marco del desarrollo de la inteligencia como factor de productividad, se va a romper con el modelo tradicional en el que se entrena a las personas para entender e interactuar con las máquinas. El nuevo modelo que surge prepara a las máquinas para entender a los humanos e interactuar con ellos por lo “que se exigirán conocimientos técnicos en muchos campos, como robótica, visión, audio y reconocimiento de patrones. Al mismo tiempo, las relaciones interpersonales, la creatividad y la inteligencia emocional serán más importantes que nunca13.” Casos de éxito a nivel internacional. La Inteligencia Artificial tiene un gran potencial para aumentar la productividad y el crecimiento económico tanto a nivel de diferentes industrias como de los múltiples países independientemente del nivel de desarrollo económico actual de los mismos, pero la IA es una tecnología que ya se está utilizando a nivel mundial por grandes empresas como Amazon, Google, IBM, SAP entre otras. En esta sección se presentará como las grandes compañías mencionadas han hecho uso de la IA para expandir sus negocios y ofrecer herramientas basadas en IA de fácil uso para empresas de todo el mundo y de todo tamaño-. Amazon Amazon es una empresa que nació en 1995 y que se dedicaba a la venta de libros en línea. En 1998, Amazon incluye nuevas categorías de productos, música en CD, vídeos en DVD, software y videojuegos. En el año 2000 la compañía se transforma en marketplace permitiendo a sus usuarios encontrar y vender una variedad de productos y servicios en línea. Y hoy es una de las tiendas en línea más famosas del mundo, en donde se puede encontrar una gran variedad productos tales como: productos de cuidados personales, computadoras, muñecas, electrodomésticos y libros. Ha sido tal el éxito de Amazon que actualmente tiene un valor en bolsa de más de un billón de dólares y ha expandido su giro de negocio más allá de las ventas minoristas, convirtiéndose también en proveedor de herramientas tecnológicas basadas en la nube para aumentar la productividad y eficiencia de las empresas, así como ofrecer el hospedaje de información. Pero ¿cómo aplica Amazon la IA en sus diferentes negocios? El primer contacto que tiene el cliente con la IA en la página de ventas del sitio está en la página de inicio en donde se muestran sugerencias de productos que usted haya buscado anteriormente. Para crear estas recomendaciones se utiliza la IA que analiza su historial de búsquedas y determina cuales son los productos que a usted le pueden interesar, así como productos complementarios. Por ejemplo, si ha buscado celulares de una marca específica en las recomendaciones además de los últimos modelos de teléfonos de esa marca, también se le sugerirán accesorios como manos libres, relojes y pulseras inteligentes y protectores de pantalla, entre otros. 13 Daugherty, P., & Purdy, M. (2016). Inteligencia Artificial el Futuro del Crecimiento. Recuperado de https://www.accenture.com/ t00010101T000000Z__w__/ve-es/_acnmedia/ PDF-16/Accenture_Inteligencia_artificial_el-futuro-del_crecimiento_esp.pdf 32 El segundo contacto del usuario con la IA es al realizar una búsqueda en donde se obtienen datos históricos de miles de millones de búsquedas, la evolución que han tenido esas búsquedas para que al momento que el usuario digite una letra se le den sugerencias para autocompletar el texto de la búsqueda, colocando en primer lugar los artículos que encabezan las listas de ventas. Posteriormente al elegir una opción del menú desplegable, se desencadena varios sistemas IA más para compilar los resultados. Los algoritmos enumeran las opciones en un pedido diseñado para promover una compra rápida y satisfactoria. Los productos con mayor número de ventas y comentarios positivos tienden a aparecer primero. La IA de Amazon decide qué opciones mostrar y qué tan alto deben colocarse en la página. Analiza los datos de ventas para determinar qué opciones se venden mejor. Esos listados cuentan con la etiqueta naranja “best seller”. (CNN, 9 octubre 2018). No obstante, cabe destacar que este algoritmo de búsqueda puede ser burlado por los vendedores que pagan un lugar privilegiado en la página. Una vez que se elige una opción de las mostradas por la IA de Amazon, en la página del producto elegido también se muestran opciones de compra basadas en los datos históricos de compras y se ofrecen tanto productos similares como productos complementarios a lo que se está comprando. Después que se ha realizado una compra, la IA vuelve a entrar en acción, ya que debe elegir el centro de atención más cercano a la dirección de entrega en Estados Unidos para el procesamiento del pedido. Posteriormente, un robot busca el producto elegido y lo lleva hasta un empleado humano de Amazon quién lo entrega a otro robot para que sea llevado a un área de espera en donde se le toma una fotografía al paquete para que un software de visión por computadora revise la imagen y si algo no parece estar bien se le lleva a un área de inspección para que un trabajador humano revise si hay algo anormal o defectuoso con el paquete y hace las correcciones necesarias si se da el caso. Pero al despachar el paquete para su envío no termina la aplicación de la IA, cuando se envía, un controlador de Amazon toma una foto del paquete, lo envía por correo electrónico al comprador para que tenga conocimiento de que el paquete llegó a su destino. Esta foto es verificada por otra IA para que reconozca la foto del paquete y se asegure de que la foto está tomada de tal manera que se pueda saber exactamente dónde encontrar el paquete. El conjunto de las labores realizadas por la IA en esta compañía crea una experiencia personalizada para el comprador y lo que busca es maximizar las oportunidades de venta, además de asegurar la calidad de entrega de sus productos. Toda la implementación de esta tecnología no sería posible sin una capacidad de almacenamiento de datos los suficientemente grande para guardar el historial de todos sus clientes alrededor del mundo, por lo que en su división de herramientas tecnológicas desarrolló el Simple Storage Service conocido como S3 y que es un “servicio de almacenamiento de objetos que ofrece puede crecer y cuenta con disponibilidad de datos, seguridad” (Amazon, 2019, párrafo 1). 33 Este permitió que se pasará de un sistema de almacenamiento físico de la información a un almacenamiento en nube, mejorando el servicio interno en temas de restablecimiento hasta de 12 veces pasando de 15 horas a 2,5 para restablecer una información en específico. Además, disminuyó costos y posibilitó que el personal administrativo dejará de dedicarse a tareas de respaldo de información para destinar su tiempo a otras de mayor valor agregado. El S3 también es un servicio ofrecido al público en general y así como esta herramienta, Amazon ofrece soluciones técnicas basadas en IA que permiten una mejora en el proceso productivo o en la toma de decisiones y que además de ofrecerse al público en general, son aplicadas para optimizar de las diferentes líneas de negocio de la compañía. A continuación, se puede observar una tabla con las principales herramientas ofrecidas en el MarketPlace de Amazon: Tabla 1: Herramientas basadas en AI ofrecidas por Amazon Nombre Funcionalidad Trifacta Plataforma que permite explorar y prepara datos de forma ágil y oportuna para el análisis y aprendizaje automático. Alteryx Plataforma que permite compartir información para implementar el trabajo colaborativo en equipos de trabajo. HablaIA Plataforma de administración del conocimiento para el análisis de datos y toma de decisiones. SpliceMachine Plataforma para aplicaciones predictivas que administran los procesos operacionales, las infraestructuras, usan el procesamiento de análisis de uso y el aprendizaje automático para mejorar con el paso del tiempo. Veritone Entorno en continua evolución de aplicaciones avanzadas, servicios centrales, herramientas del desarrollo y cómputo cognitivo, ofrece incorporación potente de capacidades de contenido, indexación, búsqueda, correlación, análisis, intercambio y colaboración. DataScience. com La plataforma combina las herramientas, las bibliotecas y los lenguajes de l equipo de datos científicos con la infraestructura, la seguridad y los flujos de trabajo de una organización de TI. Compellon Esta plataforma ofrece análisis predictivo implusada por IA que produce rápidamente modelos e información prescriptiva desde big data. Mangrove Surface Esta plataforma permite crear modelos predictivos de inicio automático basados en todos los orígenes de datos disponibles. Ade,ás de identificar las señales que son realmente importantes y evaluar la capacidad predictiva general de sus datos. Domino Data Lab La plataforma de datos científicos de Domino ayuda a que las compañías aceleren la búsqueda cuantitativa, incrementen la colaboración y ofrezcan modelos predictivos más efectivos que orientan el impacto comercial. 34 Bitfusion Es una herramienta para administrar infraestructura de IA así como desarrollar, capacitar e implementar aplicaciones de aprendizaje profundo de manera eficiente. H2O.IA Es una plataforma enfocada en traer IA a los negocios mediante el software. Es una plataforma de fuente abierta que facilita la implementación de ML y el analísispredictivo para resolver problemas complejos. BigDL Es una fuente abierta y gratuita, distribuida de biblioteca de aprendizaje profundo creada espicificamente para agilizar y facilitar la ejecucción de los trabajos de aprendizaje profundo en Apache Spark. NVIDIA Volta Deep Learning AMI Es un entorno optimizado para ejecutar contenedores de marcos de aprendizaje preofundo NVIDIA GPU Cloud (NGC) en las intancias P3 EC2 de Amazon. Dimensional Mechanics Inc Es una solución completa para capacitar, consultar y administrar modelos de IA. SherlockML Entorno basado en la nube para ánalisis de datos cientificos que ofrece una combinación entre los paquetes de fuente abierta y el cómputo escalable. KNIME Tiene más de 1000 módulos, cientos de ejemplos listos para ejecutarse, contribuciones de la comunidad e integraciones con herramientas, es una plataforma de análises de datos en un marco fiable y escalable con mucha capacidad para crecer. SIGOPOT Es una plataforma de optimación como servicio que ajusta los parámetros de configuración del modelo de IA mediante un ensamble de algoritmos de optimización detrá de una simple API. SDL Es una herramienta que ofrece soluciones de traducción automática impulsadas por las tecnologías de procesamientos de idioma natural y de aprendizaje automático para apoyar la traducción a alta velocidad y a gran escala. Plasticity Ofrece un conjunto de API de procesamineto de idioma natural para permitir que las empresas y los desarrolladores entiendan el texto en sus aplicaciones y las interfaces conversacionales. Twinw.rd api Es un API de análisis de texto para desarrolladores que clasifica automáticamente el texto, revisa la similitud entre los documentos , analiza los sentimientos y más. Deep Vision Es un proceso de etiquetado de imagen automático y realización de búsqueda visual con inteligencia visual. Reúne información sobre las caras, las marcas y el contexto fuera de sus imágenes o videos. Fuente: Elaboración Prosic en la página del MarketPlace de Amazon 35 Todas las soluciones técnicas de la tabla 1 se pueden utilizar en diferentes campos, para mejorar la productividad de una empresa, el análisis de datos o en la educación, entre otros usos. Por ejemplo Twinw.rd.api puede ser utilizado en el área educativa con el fin evitar el plagio y aplicar diferentes técnicas pedagógicas en la enseñanza según la lectura de emociones efectúa la herramienta. Asimismo, Twinw.rd.api también puede ser utilizada para optimizar la productividad empresarial, evitar los plagios, detectar desmotivaciones y motivaciones del personal y tomar medidas correctivas o preventivas. Google. Google es una empresa que nace en 1998 como un motor de búsquedas en la Red, que fue evolucionando a diferentes idiomas, pasando de ser un buscador de páginas Web hasta convertirse en un proveedor de soluciones tecnológicas. Actualmente Google cuenta con un amplio catálogo de productos, tales como Google Imágenes en la que los usuarios pueden buscar entre millones de imágenes según el criterio de búsqueda ingresado, Google Maps, Google Earth, GmIAl para dispositivos móviles y Google Transit, Hangouts, la G Suite para empresas, YouTube, Google Chrome, entre muchos otros. Google se ha convertido en uno de los líderes en desarrollo de productos tecnológicos y de las más importantes del mundo tecnológico con un valor en bolsa de más de un billón de dólares. Esta empresa ha aplicado la IA en la mayor parte de sus productos entre los más populares su buscador, uno de los más utilizados del mundo. En 2015 se implementó como parte de la tecnología de búsqueda RankBrIAn, que es un sistema de Inteligencia Artificial que identifica palabras claves para determinar resultados de búsqueda, si no encuentra la palabra exacta el sugiere términos similares que ayudan al usuario a orientar su búsqueda, además de interpretar la satisfacción del usuario según su interacción con los resultados. Adicionalmente, se lanzó la búsqueda por imágenes con Lens, un programa que hace reconocimiento de una imagen y busca los resultados asociados a ella y se los muestra al usuario, para que pueda tener mayor información sobre lo que está viendo. Este es un programa que se encuentra incorporado en el asistente virtual de Google y en el programa fotos. Pero según un artículo de la revista Semana del 2018, el gigante de las búsquedas no solamente aplica Inteligencia Artificial en su algoritmo de búsqueda, sino que además lo ha implementado en diferentes productos, tales como GmIAl, Fotos, Google Maps, entre otros. El producto Smart Compose (composición inteligente), es una herramienta que se implementó en el servicio de correo GmIAl. Utiliza la IA para evaluar frases y ofrecer opciones de autocompletado y distintas variaciones para finalizarlas. Este servicio está complementado por un chatbot que es capaz de responder automáticamente a ciertas preguntas con lo que se reduce el tiempo para contestar correos. 36 Otro producto que utiliza la IA es Fotos que es un servicio en el que se pueden albergar las fotos en la nube, utiliza este tipo de inteligencia para organizar las fotos de manera intuitiva, detectar diferentes personas que están en las fotos de forma automática y organizarlas en álbumes de acuerdo a esto. Además, establece carpetas por lugares, actividades o épocas del año como invierno y verano. También cuenta con herramientas inteligentes para mejorar las fotos de acuerdo a lo que el usuario desee. Google Asistente es un programa basado en IA al que usted le puede hacer una pregunta y Google le dará una respuesta basada en su motor de búsqueda y a medida que lo utiliza va a ir conociéndolo para darle mejores resultados. También puede organizar sus tareas y administrar recordatorios. En la página Noticias dedicada a contenidos noticiosos de Google, se establece por medio de la IA qué noticias son las que más le pueden interesar de acuerdo a sus búsquedas y videos. Además, ofrece contenidos específicos dependiendo de cómo navegue en su interior. Un producto muy interesante que utiliza la IA es Google Glass. Su primer modelo salió en 2012 dirigidos a todo público, no obstante, este no tuvo el éxito comercial esperado por lo que en 2017 volvió a salir un modelo dirigido al sector industrial. Los anteojos cuentan con una detección de texto inteligente con el que se puede apuntar a un texto con la cámara para que quede capturado. Además de textos, reconoce diferentes objetos, tiene habilitada la aparición de información adicional por medio de códigos QR o la detección de objetos y permite a las empresas añadir software específico para reducir consultas y trabajos repetitivos. Google Maps otro de los programas que hacen uso de la IA es una aplicación que tiene la capacidad de guardar un historial de la información de todos los lugares que visita una persona por lo que puede analizarla y generar sugerencias de acuerdo a los restaurantes o lugares en los que ya ha estado. Además, permite dar calificaciones a los lugares visitados y comentarios de los mismos. Complementando esta aplicación, está la realidad aumentada que entra a jugar un papel importante en esta aplicación porque por medio de VPS (Sistema visual de posicionamiento) y Google Street View se pueden mostrar rutas en la vida real y mostrarle los lugares exactos de su ruta para evitar confusiones cuando se movilice por medio de estos mapas. Todos los servicios y programas anteriores son brindados para todo público o al menos en un inicio fueron diseñados para todo público, pero Google también a utilizado la IA para brindar servicios especializados para las empresas y ayudarlo a mejorar su productividad o cubrir necesidades específicas de la empresa. Cloud Talent Solution es uno de los productos que Google ofrece a empresas, es una solución que ya está preparada y cuenta con API para proveedores de servicios de contratación y agencias de empleo. Gracias a la tecnología IA, las personas que buscan empleo pueden encontrar puestos vacantes de forma más precisa; además, sirve para mejorar la eficacia de las funciones de búsqueda de empleo y de perfiles, entre otras. 37 Contact Center IA ALFA es un potente modelo de IA capaz de hablar y chatear con los clientes de una determinada empresa para dar información e indicaciones personalizadas en cada llamada. El Motor de recomendaciones permite crear un servicio escalable, eficiente y eficaz para recomendar a los usuarios productos relevantes en una tienda online. Google también ofrece un API de aprendizaje automático que integra funciones de IA en una empresa con servicios de aprendizaje automático, modelos ya preparados y soluciones generadas a medida para crear modelos personalizados para una determinada empresa. En el caso de Google es importante resaltar que Google es el buscador con un promedio de visitas de 5,5 mil millones por día en el 2018 y actualmente, ofrece muchos de los servicios mencionados de forma no cobrada al público en general y es uno de los servicios mayormente utilizados en el mundo. Por lo que Google tiene una base de datos muy variada y amplia que puede alimentar herramientas de Inteligencia Artificial que permitan mejorar campos que van desde la medicina hasta el ocio. IBM. Otra de las grandes empresas a nivel mundial que ha desarrollado productos basados en Inteligencia Artificial es International Bussiness Machines, conocida comercialmente como IBM. Esta es una compañía que nace en 1911 bajo el nombre Computing Tabulating Recording producto de la fusión de las empresas Tabulating Machine Company, International Time Recording Company, Computing Scale Corporation y Bundy Manufacturing Company. Pero en 1924 cambió su nombre por el actual en esa época la compañía vendía máquinas industriales, comerciales, para controlar las horas de entradas y salidas de los empleados y máquina de tarjetas perforadas. Este último producto es el que da el rumbo de negocios de la compañía durante muchos años ya que a partir de esta, se crean los primero modelos de ordenadores que van evolucionando desde 1964 hasta 1981 cuando se crea la primera PC, el ordenador personal. Sin embargo, en las últimas décadas ha dado un giro a su negocio y ha pasado de fabricar máquinas, a crear soluciones tecnológicas enfocadas a la productividad de las empresas. En el campo de la Inteligencia Artificial IBM es una de las más famosas en explorar los usos de esta tecnología con su producto Watson, que es un sistema cognitivo que no se programa si no que es capaz de entender el lenguaje natural de las personas y de aprender. Watson fue lanzado en enero de 2011 en el programa de concurso estadounidense Jeopardy! Donde ganó a los mejores jugadores de la historia del programa. 38 Watson es capaz de: • Leer y entender el lenguaje natural de las personas. • Alimentar el sistema de información procedentes de múltiples fuentes: estructurada en bases de datos o no estructurada; es decir, libros, informes de investigación, tweets, blogs, imágenes, etc. • Procesar millones de datos en cuestión de segundos y responder a preguntas complejas casi en tiempo real. Ante una interrogante, formula hipótesis y escoge la respuesta en la que tiene un mayor nivel de confianza. • Mostrar los pasos que ha dado para llegar a la solución expuesta de una forma clara y sencilla, es decir, presenta su razonamiento. Y, además, aprende de su experiencia, de cada interacción, así que cada vez es más inteligente. (IBM s.f.) Algunos usos de Watson en diferentes sectores son: Sector Salud: Se puede ayudar para que los médicos identifiquen nuevos tratamientos personalizados, para poder predecir las crisis de una enfermedad crónica específica horas antes de que ocurra. Sector Financiero: Watson puede hacer recomendaciones financieras inteligentes y rápidas basadas en un conocimiento generado a partir del análisis de datos. Sector Educativo: Watson puede funcionar como un asesor para los estudiantes sobre sus posibilidades académicas, alternativas de empleo futuros, entre otros aspectos. Sector del Entretenimiento: Se ha creado una app basada en IB Watson llamada MusicGeek que hace búsqueda de música en fuentes de datos no estructurada como blogs para dar recomendaciones de música a los usuarios de la aplicación. Sector Comercio: Se creó una aplicación llamada Watson Trend que ha sido capaz de predecir lo que las personas iban a comprar para navidad. Sector Medio Ambiente: IBM trabajó con el Beijing Environmental Protection Bureau (EPB) para crear un sistema capaz de controlar la calidad del IAre, y predecir la contaminación kilómetro a kilómetro con 72 horas de antelación, así como las tendencias de contaminación diez días antes. Sector Energía: En este sector IBM ha explorado con compañías petroleras, un sistema que permite optimizar los resultados de las exploraciones y la producción de hidrocarburos, haciendo un análisis de la información disponible de la zona a explorar o de la producción de hidrocarburos. 39 IBM ha desarrollado muchos productos basado en Watson, algunos en colaboración con otras empresas, la mayoría de estos están enfocados en el reconocimiento de patrones y en el aprendizaje profundo. A continuación, se muestra una lista de ellos: Watson Text to Speech: Permite que los sistemas hablen como las personas convirtiendo el texto escrito en un audio con sonido natural en diversos idiomas y voces. Watson Natural Language Classifier: Interpreta y clasifica el lenguaje natural comprendiendo la intencionalidad del texto. Watson Conversation: Crea y despliega chatbots en dispositivos móviles, plataformas de mensajería o incluso en robots físicos. Watson Discovery: Utiliza un motor de análisis de contenido y búsqueda cognitiva que extrae valor de los datos no estructurados. Watson Visual Recognition: Analiza imágenes de lugares, objetos, caras, colores y otros aspectos a fin de obtener más información sobre el contenido visual. Watson Natural Language Understanding: Utiliza el análisis de texto avanzado para extraer metadatos del contenido del lenguaje natural, como palabras clave, categorías, sentimientos y emociones. Watson IoT Platform: Gestiona los dispositivos del Internet de las cosas con una herramienta basada en cloud. Servidores virtuales IBM Bluemix: Crea su infraestructura cloud con servidores de alto rendimiento. Watson Explorer: Extrae conocimientos de los datos con el análisis y la búsqueda cognitivos. IBM Watson for Genomics: Proporciona medicina de precisión a los pacientes oncológicos y mejora la confianza en los enfoques de tratamientos personalizados. IBM Cognitive Security Operations Center (SOC): Revoluciona su seguridad con sistemas que comprendan, razonen y aprendan. IBM Prescriptive MIAntenance on Cloud: Mejora la disponibilidad de los activos con Machine Learning y analítica de datos. Watson Asistente: Ofrece la posibilidad de construir un asistente con variedad de canales, incluidos dispositivos móviles, plataformas de mensajería e incluso robots. Watson Studio: Ofrece construir modelos basados en Inteligencia Artificial, prepara y analiza datos e integración de ambientes. Watson Machine Learning: Con la data de una empresa específica permite crear modelos de autoaprendizaje, para automatizar flujos y construir aplicaciones inteligentes. 40 IA OpenScale: Ofrece operar y automatizar la IA a escala explicando resultados y eliminando sesgos de apreciación. Visual Recognition: Permite etiquetar y clasificar contenido visual utilizado en el aprendizaje de la máquina. Personality Insights: Predice características personales a través del texto. Tone Analyzer: Analiza los tonos emocionales en un texto para determinar la intención de este y mejorar el tono del mismo. Un caso de éxito de uso del sistema Watson en América Latina es el de la empresa mexicana Human que es una compañía que desarrolla tecnología cuyo objetivo es identificar y medir las competencias clave del capital humano de las organizaciones y está basado en cuatro principios: atraer, retener, desarrollar y desvincular el talento. Esta empresa integró Watson a su plataforma de gestión de talento Khor20, para detectar la esencia del talento mexicano en las empresas. La integración consistió en agregar a las funcionalidades de Khor, parte de las funcionalidades de Watson que permite medir cinco factores específicos de personalidad (apertura, responsabilidad, extroversión, amabilidad e inestabilidad emocional) en la prueba OCEAN o BIG FIVE, lo que mejora la percepción que el sistema muestra de un candidato. Con esta herramienta la empresa Human puede brindar a sus clientes un perfil más acertado del candidato e identificar a las personas exitosas. SAP. La empresa SAP fue fundada por cinco exempleados de IBM en 1972 y su nombre proviene del alemán Systeme, Anwendungen und Produkte in der Datenverarbeitung (Sistemas, Aplicaciones y Productos en Procesamientos de datos). Su principal producto es un sistema modular del mismo nombre que ofrece a las empresas posibilidades de personalización del sistema para manejar todos los aspectos del negocio desde un mismo sistema. La empresa SAP también ha incursionado en el desarrollo de herramientas basadas en IA, como lo son: SAP Cash Application: Automatiza los procesos de conciliación de facturas. Usa Machine Learning para unir criterios de su historial y liberar pagos automáticamente con el software inteligente de próxima generación. SAP Service Ticket Intelligence: Acelera el servicio al cliente ofreciendo atención de primer contacto de manera omnicanal. La aplicación procesa publicaciones de redes sociales, correos electrónicos y otras interacciones de canal entrantes determinando automáticamente clasificaciones, enrutamiento y respuestas. SAP Brand Impact: Mide y comprende el valor de las campañas de publicidad y patrocinio. Las técnicas avanzadas de visión informática reconocen logos automáticamente en imágenes y videos dándole información estratégica precisa y oportuna sobre el retorno de inversión de marketing. 41 SAP Conversational IA: Es una plataforma de bots que viene con tecnología de procesamiento de lenguaje natural, de manera que puede desarrollar robots que comprendan a los humanos rápida y fácilmente, incluye un bot de soporte al cliente listo para usar para industrias específicas. SAP Leonardo Machine Learning Foundation: Crea, opera, consume y mantiene apps de machine self-learning con facilidad usando algoritmos que no requieran habilidades en ciencia de datos. La base conecta a desarrolladores, partes y clientes con la tecnología de Machine Learning a través de SAP Cloud Platform. Uno de los usos que SAP le ha dado a sus productos es transformar municipios en ciudades inteligentes y las ha llamado Ciudades del Futuro. Uno de los ejemplos de estas ciudades es la ciudad de Buenos Aires, Argentina. En el 2013, SAP trabajó con el Ministerio de Medio Ambiente y Espacios Públicos del Gobierno de la Ciudad de Buenos Aires para gestionar de un modo inteligente y preventivo las inundaciones que sufre con frecuencia la ciudad. Con la colocación de sensores de movimientos y el software de SAP ‘traduce’ y analiza la información de los sensores y permite que con esta información la Ciudad pueda gestionar los acueductos, los drenajes y los programas de acción para evitar y/o actuar en caso de inundación. Esto permitió a la ciudad reducir las muertes por inundación, gestionar mejor los recursos públicos y reducir los costos de mantenimiento. También en la Ciudad de Buenos Aires SAP se aplicaron los programas esta compañía para administrar las agencias de lotería que son alrededor de 1200 agencias, el uso del Hipódromo Argentino de Palermo y el Casino de Buenos Aires. El objetivo de esta implementación era proporcionar transparencia en el control del juego, obtener información basada en datos confiables en tiempo real y unificar las gestiones para administrar el sistema de lotería en un mismo sistema. Software libre para Inteligencia Artificial. Además de las herramientas vistas anteriormente para la creación de programas y plataformas de Inteligencia Artificial, así como de los casos de éxito en el mundo del software licenciado, también existen experiencias relevantes en el ámbito del software libre, por lo que a continuación se hace un pequeño resumen de algunas de estas. Pythia. Este es un programa que permite crear redes neuronales artificiales que se utilizan comúnmente en el reconocimiento de patrones, además, cuenta con interfaz gráfica de usuario. Otra característica de Pythia es que genera automáticamente las redes neuronales adecuadas según el conjunto de datos con el que se está trabajando. Admite carga de datos de diferentes formatos como Excel. No obstante, solamente es capaz de trabajar con un tipo de red. 42 Open Neural Networks Library (versión beta). Es una librería escrita en dos lenguajes de programación en C++ que implementa redes neuronales para la creación de modelos que permiten la regresión, la clasificación, el pronóstico y la asociación de datos basados en la información con la que se alimenta el programa creado con la librería. Esta ha sido utilizada por compañías como IArbus, Philips, la Universidad de Washington, entre otras, en áreas como el análisis de datos en áreas como la energía, el comercio y la salud. Open IA. Es una organización que quiere garantizar que se pongan los beneficios de la IA al servicio de la humanidad. Fue fundada en 2015 y está basada en los siguientes principios: distribuir ampliamente los beneficios de la IA para evitar efectos perjudiciales de esta o la concentración indebida del poder, brindar seguridad a largo plazo apoyando proyectos que tomen en cuenta los aspectos de seguridad en sus investigaciones, ser líderes técnicos en las investigaciones sobre Inteligencia Artificial y ofrecer orientación cooperativa trabajando en conjunto con otras instituciones políticas y de investigación. Esta organización ofrece sitios de discusión, artículos sobre investigaciones y productos a desarrollarse, recursos de educación y herramientas de desarrollo. Algunas de ellas son: Tabla 2: Herramientas ofrecidas por Open AI Herramientas Descirpción Gym Es un conjunto de herramientas para desarrollar. Es un conjunto de implementaciones de algoritmos de aprendizaje de refuerzo. Baseline Roboschool Es un software para crear la simulación de un robot y está integrado con Gym. Evolution Es un algoritmo alternativo escalable al strategies starter aprendizaje reforzado. Rllab Es un marco de desarrollo y evaluación de algoritmos de aprendizaje reforzado. Universe Es una plataforma de software para medir y entrenar Inteligencia Artificial. Fuente: Tomado de https://openIA.com/resources/ 43 Además, de las herramientas mencionadas en la tabla 2. Open IA ofrece muchas otras herramientas que permiten potenciar las investigaciones en este campo y hacer desarrollos nuevos. Para acceder a más información de estas herramientas, así como a la documentación para su uso se recomienda ingresar a la dirección https://openai.com. Stuttgart Neural Network Simulator. Este es un software desarrollado por la Universidad de Stuttgart que le da mantenimiento a la Universidad de Tübingen. Este simula las redes neuronales en estaciones de trabajo y está compuesto por una interfaz gráfica y un simulador de Kernel22 escrito en C, el cual se puede utilizar para desarrollar iniciativas de aprendizaje. Joone es un marco de red neuronal gratuito para crear, entrenar y probar redes neuronales artificiales. El objetivo es crear un entorno basado en las nuevas tecnologías Java. Está compuesto por un motor central que es el punto de apoyo de todas las aplicaciones que se desarrollan y estas pueden construirse en una máquina local, capacitarse en un entorno distribuido y ejecutarse en cualquier dispositivo. ROS (Sistema Operativo Robótico). Es un marco para el desarrollo de software para robots que provee la funcionalidad de un sistema operativo en un clúster heterogéneo. ROS se desarrolló originalmente en 2007 bajo el nombre de switchyard por el Laboratorio de Inteligencia Artificial de Stanford para dar soporte al proyecto del Robot con Inteligencia Artificial de Stanford (STAIR2). Desde 2008, el desarrollo continúa primordialmente en Willow Garage, un instituto de investigación robótico con más de veinte instituciones colaborando en un modelo de desarrollo federado. ROS provee los servicios estándar de un sistema operativo tales como abstracción del hardware, control de dispositivos de bajo nivel, implementación de funcionalidad de uso común, paso de mensajes entre procesos y mantenimiento de paquetes. 44 Unidad 4: Los principales modelos en IA. Simbólico, Conexionista, Evolutivo y Corpóreo. A partir de la crisis del paradigma simbolista surge un nuevo paradigma dentro de la Inteligencia Artificial: el paradigma conexionista que asume que la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. La IA no se quedó en el paradigma conexionista o emergente, al cual le han seguido el paradigma enactivo o corpóreo y el paradigma basado en datos o máquinas superinteligentes. De momento, podemos mencionar los siguientes paradigmas. Paradigma simbólico. •Modelo simbólico – Reglas de producción. Paradigma conexionista. •Modelo conexionista o neuronal – Redes neuronales. •Modelo colectivo – Sistemas multiagentes. •Modelo evolutivo – Algoritmo genético. 45 Paradigma enactivo. •Modelo corpóreo – Robótica del desarrollo (robótica reactiva). Paradigma máquinas inteligentes. •Modelo basado en datos – Aprendizaje profundo. Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas. Las unidades interconectadas pueden ser: » Neuronas. » Genes. » Agentes inteligentes. No se puede olvidar que, hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión. A su vez, los paradigmas han dado lugar a nuevos modelos y técnicas de investigación entre las técnicas más importantes tenemos: Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente. Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas. Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software. Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos. Robots reactivos: Se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas. 46 El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA partiendo de la representación en la computadora de la realidad y, para muchos, esa representación basada en símbolos es equivalente a los estados mentales, ya que tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que procesan información). El modelo dominante en IA ha sido el simbólico, que tiene sus raíces en la hipótesis SSF. De hecho, sigue siendo muy importante y actualmente se considera el modelo clásico en IA (también denominado por el acrónimo GOFIA, de Good Old Fashioned IA). Es un modelo top-down que se basa en el razonamiento lógico y la búsqueda heurística como pilares para la resolución de problemas, sin que el sistema inteligente necesite formar parte de un cuerpo ni estar situado en un entorno real. Es decir, la IA simbólica opera con representaciones abstractas del mundo real que se modelan mediante lenguajes de representación basados principalmente en la lógica matemática y sus extensiones. Por este motivo, los primeros sistemas inteligentes resolvían principalmente problemas que no requieren interactuar directamente con el entorno como, por ejemplo, demostrar sencillos teoremas matemáticos o jugar al ajedrez —los programas que juegan al ajedrez no necesitan de hecho la percepción visual para ver las piezas en el tablero ni actuadores para mover las piezas—. Ello no significa que la IA simbólica no pueda ser usada para, por ejemplo, programar el módulo de razonamiento de un robot físico situado en un entorno real, pero en los primeros años los pioneros de la IA no disponían de lenguajes de representación del conocimiento ni de programación que permitieran hacerlo de forma eficiente y por este motivo los primeros sistemas inteligentes se limitaron a resolver problemas que no requerían interacción directa con el mundo real. Actualmente, la IA simbólica se sigue usando para demostrar teoremas o jugar al ajedrez, pero también para aplicaciones que requieren percibir el entorno y actuar sobre él como por ejemplo el aprendizaje y la toma de decisiones en robots autónomos. 47 Simultáneamente con la IA simbólica también empezó a desarrollarse una IA bioinspirada llamada conexionista. Los sistemas conexionistas no son incompatibles con la hipótesis SSF pero, contrariamente a la IA simbólica, se trata de una modelización bottom-up, ya que se basan en la hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran número de unidades interconectadas que procesan información paralelamente. En la IA conexionista estas unidades son modelos muy aproximados de la actividad eléctrica de las neuronas biológicas. Ya en 1943, McCulloch y Pitts (McCulloch y Pitts, 1943) propusieron un modelo simplificado de neurona en base a la idea de que una neurona es esencialmente una unidad lógica. Este modelo es una abstracción matemática con entradas (dendritas) y salidas (axones). El valor de la salida se calcula en función del resultado de una suma ponderada de las entradas, de forma que si dicha suma supera un umbral preestablecido entonces la salida es un «1», en caso contrario la salida es «0». Conectando la salida de cada neurona con las entradas de otras neuronas se forma una red neuronal artificial. En base a lo que ya se sabía entonces sobre el reforzamiento de las sinapsis entre neuronas biológicas se vio que estas redes neuronales artificiales se podían entrenar para aprender funciones que relacionaran las entradas con las salidas mediante el ajuste de los pesos que sirven para ponderar las conexiones entre neuronas, por este motivo se pensó que serían mejores modelos para el aprendizaje, la cognición y la memoria, que los modelos basados en la IA simbólica. Sin embargo, los sistemas inteligentes basados en el conexionismo tampoco necesitan formar parte de un cuerpo ni estar situados en un entorno real y, desde este punto de vista, tienen las mismas limitaciones que los sistemas simbólicos. Por otra parte, las neuronas reales poseen complejas arborizaciones dendríticas con propiedades no solo eléctricas sino también químicas nada triviales. Pueden contener conductancias iónicas que producen efectos no lineales. Pueden recibir decenas de millares de sinapsis variando en posición, polaridad y magnitud. Además, la mayor parte de las células del cerebro no son neuronas, son células gliales, que no solamente regulan el funcionamiento de las neuronas, también poseen potenciales eléctricos, generan ondas de calcio y se comunican entre ellas, lo que parece indicar que juegan un papel muy importante en los procesos cognitivos. Sin embargo, no existe ningún modelo conexionista que incluya a dichas células por lo que, en el mejor de los casos, estos modelos son muy incompletos y, en el peor, erróneos. En definitiva, toda la enorme complejidad del cerebro queda muy lejos de los modelos actuales. Esta inmensa complejidad del cerebro también conduce a pensar que la llamada singularidad, es decir, futuras superinteligencias artificiales que, basadas en réplicas del cerebro, superarán con mucho la inteligencia humana en un plazo de unos veinticinco años, es una predicción con poco fundamento científico. 48 Otra modelización bioinspirada, también compatible con la hipótesis SSF, y no corpórea, es la computación evolutiva (Holland, 1975). Los éxitos de la biología evolucionando organismos complejos, hizo que a primeros de los años sesenta algunos investigadores se plantearan la posibilidad de imitar la evolución con el fin de que los programas de ordenador, mediante un proceso evolutivo, mejorasen automáticamente las soluciones a los problemas para los que habían sido programados. La idea es que estos programas, gracias a operadores de mutación y cruce de «cromosomas» que modelan a los programas, generan nuevas generaciones de programas modificados cuyas soluciones son mejores que las de los programas de las generaciones anteriores. Dado que podemos considerar que el objetivo de la IA es la búsqueda de programas capaces de producir conductas inteligentes, se pensó que se podría usar la programación evolutiva para encontrar dichos programas dentro del espacio de programas posibles. La realidad es mucho más compleja y esta aproximación tiene muchas limitaciones, aunque ha producido excelentes resultados, en particular en la resolución de problemas de optimización. Una de las críticas más fuertes a estos modelos no corpóreos se basa en que un agente inteligente necesita un cuerpo para poder tener experiencias directas con su entorno (diríamos que el agente está «situado» en su entorno) en lugar de que un programador proporcione descripciones abstractas de dicho entorno codificadas mediante un lenguaje de representación de conocimientos. Sin un cuerpo, estas representaciones abstractas no tienen contenido semántico para la máquina. Sin embargo, gracias a la interacción directa con el entorno, el agente puede relacionar las señales que percibe a través de sus sensores con representaciones simbólicas generadas a partir de lo percibido. Algunos expertos en IA, en particular Rodney Brooks (Brooks, 1991) incluso llegaron a afirmar que no era ni siquiera necesario generar dichas representaciones internas, esto es, que no es necesario que un agente tenga que tener una representación interna del mundo que le rodea ya que el propio mundo es el mejor modelo posible de sí mismo y que la mayor parte de las conductas inteligentes no requieren razonamiento, sino que emergen a partir de la interacción entre el agente y su entorno. Esta idea generó mucha polémica y el propio Brooks, unos años más tarde, admitió que hay muchas situaciones en las que una representación interna del mundo es necesaria para que el agente tome decisiones racionales. En 1965, el filósofo Hubert Dreyfus afirmó que el objetivo último de la IA, es decir, la IA fuerte de tipo general, era tan inalcanzable como el objetivo de los alquimistas del siglo XVII que pretendían transformar el plomo en oro (Dreyfus, 1965). 49 Dreyfus argumentaba que el cerebro procesa la información de manera global y continua mientras que un ordenador utiliza un conjunto finito y discreto de operaciones deterministas aplicando reglas a un conjunto finito de datos. En este aspecto podemos ver un argumento similar al de Searle, pero Dreyfus, en posteriores artículos y libros (Dreyfus, 1992), usó también otro argumento consistente en que el cuerpo juega un papel crucial en la inteligencia. Fue pues uno de los primeros en abogar la necesidad de que la inteligencia forme parte de un cuerpo con el que poder interactuar con el mundo. La idea principal es que la inteligencia de los seres vivos deriva del hecho de estar situados en un entorno con el que pueden interactuar gracias a sus cuerpos. De hecho, esta necesidad de corporeidad está basada en la Fenomenología de Heidegger que enfatiza la importancia del cuerpo con sus necesidades, deseos, placeres, penas, formas de moverse, de actuar, entre otros. Según Dreyfus, la IA debería modelar todos estos aspectos para alcanzar el objetivo último de la IA fuerte. Dreyfus no niega completamente la posibilidad de la IA fuerte, pero afirma que no es posible con los métodos clásicos de la IA simbólica y no corpórea, en otras palabras, considera que la hipótesis del Sistema de Símbolos Físicos no es correcta. Sin duda se trata de una idea interesante que hoy en día comparten muchos investigadores en IA. Efectivamente, la aproximación corpórea con representación interna ha ido ganando terreno en la IA y actualmente muchos la consideramos imprescindible para avanzar hacia inteligencias de tipo general. De hecho, basamos una gran parte de nuestra inteligencia en nuestra capacidad sensorial y motora. En otras palabras, el cuerpo conforma a la inteligencia y por lo tanto sin cuerpo no puede haber inteligencia de tipo general. Esto es así porque el hardware del cuerpo, en particular los mecanismos del sistema sensorial y del sistema motor, determinan el tipo de interacciones que un agente puede realizar. A su vez, estas interacciones conforman las habilidades cognitivas de los agentes dando lugar a lo que se conoce como cognición situada. Es decir, se sitúa a la máquina en entornos reales, como ocurre con los seres humanos, con el fin de que tengan experiencias interactivas que, eventualmente, les permitan llevar a cabo algo similar a lo que propone la teoría del desarrollo cognitivo de Piaget (Inhelder y Piaget, 1958), según la cual un ser humano sigue un proceso de maduración mental por etapas y quizá los distintos pasos de este proceso podrían servir de guía para diseñar máquinas inteligentes. Estas ideas han dado lugar a una nueva subárea de la IA llamada robótica del desarrollo (Weng et al., 2001). Todos los esfuerzos de la investigación en IA se han centrado en construir inteligencias artificiales especializadas y los éxitos alcanzados son muy impresionantes, en particular durante el último decenio gracias sobre todo a la conjunción de dos elementos: la disponibilidad de enormes cantidades de datos y el acceso a la computación de altas prestaciones para poder analizarlos. 50 Efectivamente, el éxito de sistemas, como por ejemplo AlphaGo (Silver et al., 2016), Watson (Ferrucci et al., 2013) y los avances en vehículos autónomos o en diagnóstico médico basado en imágenes, han sido posibles gracias a esta capacidad para analizar grandes cantidades de datos y detectar patrones eficientemente. Sin embargo, prácticamente no hemos avanzado hacia la consecución de IA general. De hecho, podemos afirmar que los actuales sistemas de IA son una demostración de lo que Daniel Dennet llama «competencia sin comprensión» (Dennet, 2018). Posiblemente la lección más importante que hemos aprendido a lo largo de los sesenta años de existencia de la IA es que lo que parecía más difícil (diagnosticar enfermedades, jugar al ajedrez y al Go al más alto nivel) ha resultado ser relativamente fácil y lo que parecía más fácil ha resultado ser lo más difícil. La explicación a esta aparente contradicción hay que buscarla en la dificultad de dotar a las máquinas de conocimientos de sentido común. Sin estos conocimientos no es posible una comprensión profunda del lenguaje ni una interpretación profunda de lo que capta un sistema de percepción visual, entre otras limitaciones. De hecho, el sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad. Los conocimientos de sentido común son fruto de nuestras vivencias y experiencias. Algunos ejemplos son: «el agua siempre fluye de arriba hacia abajo», «para arrastrar un objeto atado a una cuerda hay que tirar de la cuerda, no empujarla», «un vaso se puede guardar dentro de un armario, pero no podemos guardar un armario dentro de un vaso», entre otros. Hay millones de conocimientos de sentido común que las personas manejamos fácilmente y que nos permiten entender el mundo en el que vivimos. Una posible línea de investigación que podría dar resultados interesantes en adquisición de conocimientos de sentido común es la robótica del desarrollo mencionada anteriormente. 51 Otra línea de trabajo muy interesante es la que tiene como objetivo la modelización matemática y el aprendizaje de relaciones causa-efecto, es decir, el aprendizaje de causales y, por lo tanto, asimétricos del mundo. Los sistemas actuales basados en aprendizaje profundo simplemente pueden aprender funciones matemáticas simétricas, no pueden aprender relaciones asimétricas y por consiguiente no son capaces de diferenciar entre causas y efectos, como por ejemplo que la salida del sol es la causa del canto del gallo y no lo contrario (Pearl, 2018; Lake et al., 2016). Hacia inteligencias artificiales realmente inteligentes. Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos ni previamente preparados. Diseñar sistemas que tengan estas capacidades requiere integrar desarrollos en muchas áreas de la IA. En particular, necesitamos lenguajes de representación de conocimientos que codifiquen información acerca de muchos tipos distintos de objetos, situaciones, acciones, entre otros, así como de sus propiedades y de las relaciones entre ellos, en particular relaciones causa-efecto. También necesitamos nuevos algoritmos que, en base a estas representaciones, puedan, de forma robusta y eficiente, resolver problemas y responder preguntas sobre prácticamente cualquier tema. Finalmente, dado que necesitarán adquirir un número prácticamente ilimitado de conocimientos, estos sistemas deberán ser capaces de aprender de forma continua a lo largo de toda su existencia. En definitiva, es imprescindible diseñar sistemas que integren percepción, representación, razonamiento, acción y aprendizaje. Este es un problema muy importante en IA, ya que todavía no sabemos cómo integrar todos estos componentes de la inteligencia. Necesitamos arquitecturas cognitivas (Forbus, 2012) que integren estos componentes de forma adecuada. Los sistemas integrados son un paso previo fundamental para conseguir algún día inteligencias artificiales de tipo general. Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos ni previamente preparados. Diseñar sistemas que tengan estas capacidades requiere integrar desarrollos en muchas áreas de la IA. Entre las actividades futuras, creemos que los temas de investigación más importantes pasarán por sistemas híbridos que combinen las ventajas que poseen los sistemas capaces de razonar en base a conocimientos y uso de la memoria (Graves et al., 2016) y las ventajas de la IA basada en análisis de cantidades masivas de datos, en lo que se conoce por aprendizaje profundo (Bengio, 2009). 52 Actualmente, una importante limitación de los sistemas de aprendizaje profundo es el denominado «olvido catastrófico», lo cual significa que si una vez han sido entrenados para llevar a cabo una tarea (por ejemplo, jugar al Go), si a continuación los entrenamos para llevar a cabo otra tarea distinta (por ejemplo, distinguir entre imágenes de perros y de gatos) olvidan completamente la tarea anteriormente aprendida (en este caso jugar al Go). Esta limitación es una prueba contundente de que en realidad estos sistemas no aprenden nada, por lo menos en el sentido humano de aprender. Otra importante limitación de estos sistemas es que son «cajas negras» sin capacidad explicativa, por ello un objetivo interesante de investigación será como dotar de capacidad explicativa a los sistemas de aprendizaje profundo incorporando módulos que permitan explicar cómo se ha llegado a los resultados y conclusiones propuestas, ya que la capacidad de explicación es una característica irrenunciable en cualquier sistema inteligente. También es necesario desarrollar nuevos algoritmos de aprendizaje que no requieran enormes cantidades de datos para ser entrenados, así como un hardware mucho más eficiente en consumo energético para implementarlos, ya que el consumo de energía podría acabar siendo una de las principales barreras al desarrollo de la IA. En comparación, el cerebro es varios órdenes de magnitud más eficiente que el hardware actual necesario para implementar los algoritmos de IA más sofisticados. Una posible vía para explorar es la computación Neuromórfica basada en memristores (Saxena et al., 2018). Otras técnicas más clásicas de IA que seguirán siendo objeto de investigación extensiva son los sistemas multiagente, la planificación de acciones, el razonamiento basado en la experiencia, la visión artificial, la comunicación multimodal persona-máquina, la robótica humanoide y sobre todo las nuevas tendencias en robótica del desarrollo que puede ser la clave para dotar a las máquinas de sentido común y, en particular, aprender la relación entre sus acciones y los efectos que estas producen en el entorno. 53 También veremos progresos significativos gracias a las aproximaciones biomiméticas para reproducir en máquinas el comportamiento de animales. No se trata únicamente de reproducir el comportamiento de un animal sino de comprender como funciona el cerebro que produce dicho comportamiento. Se trata de construir y programar circuitos electrónicos que reproduzcan la actividad cerebral que genera este comportamiento. Algunos biólogos están interesados en los intentos de fabricar un cerebro artificial lo más complejo posible porque consideran que es una manera de comprender mejor el órgano, y los ingenieros buscan información biológica para hacer diseños más eficaces. Mediante la biología molecular y los recientes avances en optogenética será posible identificar qué genes y qué neuronas juegan un papel clave en las distintas actividades cognitivas. En cuanto a las aplicaciones, algunas de las más importantes seguirán siendo aquellas relacionadas con la web, los videojuegos, los asistentes personales y los robots autónomos (en particular vehículos autónomos, robots sociales, robots para la exploración de planetas, entre otros). Las aplicaciones al medio ambiente y ahorro energético también serán importantes, así como las dirigidas a la economía y la sociología. Por último, las aplicaciones de la IA al arte (artes visuales, música, danza, narrativa) cambiarán de forma importante la naturaleza del proceso creativo. Los ordenadores ya no son solamente herramientas de ayuda a la creación, los ordenadores empiezan a ser agentes creativos. Ello ha dado lugar a una nueva y muy prometedora área de aplicación de la IA denominada Creatividad Computacional que ya ha producido resultados muy interesantes (Colton et al., 2009, 2015; López de Mántaras, 2016) en ajedrez, música, artes plásticas y narrativa, entre otras actividades creativas. 54