20381 BIOINFORMÁTICA EXAMEN de primera convocatoria (29/01/04) - Permutación #2 Cada pregunta fallada descuenta ¼ de pregunta acertada. No desgrapar las hojas. 1) Para resolver el problema del viajante de comercio (TSP) entre 6 ciudades con una SOM, es mejor usar: a) b) c) d) e) Una Kohonen de 6 entradas y 6 salidas en malla rectangular. Una Kohonen de 2 entradas y 6 salidas en malla rectangular. Una red competitiva básica (o simple) de 2 entradas y 6 salidas. Una Kohonen de 2 entradas y 6 salidas en anillo unidimensional. Ninguna de las anteriores. 2) En una neurona el potencial de membrana en condiciones de reposo. a) b) c) d) e) Vale cero. Puede valer entre –80mV y +30 mV. Es igual en el interior que en el exterior de la neurona. Es siempre positivo. Ninguna de las anteriores. 3) Si inmediatamente después ( 10-5 segundos) de producirse un potencial de acción en una neurona, la neurona recibe un estímulo suficiente como para producir otro potencial de acción normal: a) b) c) d) e) El nuevo potencial de acción es mayor que el anterior. No es posible que se reciba un estímulo tan seguido. No se puede producir un nuevo potencial de acción inmediatamente. Se mantiene el potencial de acción anterior durante más tiempo. Ninguna de las anteriores. 4) Si queremos diseñar a mano una red de perceptrones para clasificar correctamente el conjunto A-B de la figura, cual es el número mínimo de capas y neuronas que necesitaremos? A-B A a) b) c) d) e) 1 capa y 6 neuronas. 4 capas y 12 neuronas. 2 capas y 7 neuronas. 3 capas y 9 neuronas. Ninguna de las anteriores. B 5) El Adaline basa su aprendizaje en la minimización de la expresión P P E ( w) E p ( w) (d p y p ) 2 p 1 p 1 donde a) b) c) d) e) E es la energía del descenso del gradiente. E es el error cuadrático medio. P es el conjunto de patrones de aprendizaje y no-aprendizaje. E es el error cuadrático. Ninguna de las anteriores. 6) En una red supervisada el “training set” es el conjunto de parejas de vectores en que las componentes de cada pareja son: a) Todas las entradas usadas para el aprendizaje tomadas de dos en dos. b) Un vector de salida calculada y el correspondiente vector de salida deseada. c) Un patrón de entrada y su correspondiente vector de salida calculada por la red. d) Un patrón de entrada y el correspondiente vector de salida deseada. e) Ninguna de las anteriores. 7) En una red SOM de Kohonen de dos unidades y 3 entradas, la matriz de pesos inicial es: w1=(0.3, 0.8, 0.6), w2=(1.1, 0.7, 0.1). Si usamos la distancia euclídea al cuadrado (De2), vecindad NK=2 y coeficiente de aprendizaje =0.5: ¿Cuál es la matriz de pesos resultante al presentar el vector de entrada (1,0,1) durante el entrenamiento? a) b) c) d) e) w1=(0.3, 0.8, 0.6), w2=(1.15, 0.35, 0.55). w1=(0.65, 1.2, 0.8), w2=(1.15, 1.05, 0.55). w1=(0.65, 1.2, 0.8), w2=(1.1, 0.7, 0.1). w1=(0.65, 0.4, 0.8), w2=(1.15, 0.35, 0.55). Ninguna de las anteriores. 8) Las redes neuronales artificiales se caracterizan fundamentalmente por: a) Ser binarias como el sistema nervioso. b) Estar formadas por elementos complejos de procesamiento. c) Ser sistemas secuenciales. d) Aprender de forma adaptativa. e) Ninguna de las anteriores. 9) Las RBFN a) b) c) d) e) Solo se usan en problemas de aproximación. Son redes supervisadas. Funcionan mejor que las MLP en problemas de clasificación. No presentan problemas de memorización. Todas las anteriores. 10) Esta red de McCulloch& Pitts se comporta de la manera siguiente: 2 a b 1 a) b) c) d) e) 11) 3 La neurona 2 se dispara si la neurona 1 se dispara en t=1,3,5, ... La neurona 2 no se puede disparar nunca. La neurona 3 no se puede disparar nunca. La neurona 3 se dispara si la neurona 1 se dispara en t=1,3,5, ... Ninguna de las anteriores. Cual de las siguientes respuestas es cierta: a) Kohonen presentó sus más conocidos resultados en los 60. b) McCulloch & Pitts publicaron su modelo de neurona formal en los años 50. c) Rossemblatt público el algoritmo del Backpropagation en los 70. d) Rumelhard presentó el Adaline en los 80. e) Ninguna de las anteriores. 12) Dada la siguiente recta de separación para una TLU binaria de dos entradas con vector de pesos w=(0.5, 2), cual es el valor del umbral ()? 2 1 1 a) b) c) d) e) 2 –0.5 1 0.5 2 Ninguna de las anteriores. 13) El punto más importante a tener en cuenta en los proyectos de aplicaciones de redes neuronales es: a) Determinar la solución óptima en la fase de diseño. b) Introducir los datos directamente en la red según se obtienen de la fuente de datos. c) Probar con diferentes prototipos. d) Centrarse en el desarrollo de nuevos algoritmos. e) Ninguna de las anteriores. 14) Los mapas auto-organizativos de Kohonen a) b) c) d) e) 15) Se basan en el descenso del gradiente. Son redes competitivas. Son redes hebianas. Todas las anteriores. Ninguna de las anteriores. En el algoritmo competitivo básico o simple a) Se debe utilizar siempre la distancia euclídea. b) El resultado final es independiente de la inicialización. c) Se puede usar la combinación convexa para optimizar clasificación. d) El resultado final no depende del orden de los patrones. e) Ninguna de las anteriores. la 16) Estamos entrenando una TLU bipolar de dos entradas, con vector de pesos w = (1,2) y función de activación lineal (y=NET) mediante el algoritmo LMS con =0.7. Presentamos el primer patrón de entrenamiento P = [xp=(1,-1), tp=1]. ¿Cuál es el nuevo valor del vector de pesos tras esta iteración del LMS? a) b) c) d) e) 17) w=(–0.8, 2.8) w=(0.9, 2.1) w=(2.4, 0.6) w=(1.4, 3.4) Ninguna de las anteriores. La función tangente hiperbólica f ( x) e x e x e x ex se utiliza como función de activación entre otras cosas porque tiene una derivada simple. La derivada es: f s(net) f s (net)(1 f s (net)) a) f s(net) f s (net)(1 f s (net)) b) f s(net) f s (net)( f s (net) 1) c) f s(net) ( f s (net) 1)(1 f s (net)) d) dddddddddddddddddddddddddd e) Ninguna de las anteriores. 18) Las redes de Hopfield explicadas en clase son: a) b) c) d) e) Feedforward. Competitivas. Realimentadas. Con valores continuos. Ninguna de las anteriores. 19) La red ART1 a) b) c) d) e) 20) Es competitiva. Es jerárquica. Utiliza patrones continuos. Es feedforward. Ninguna de las anteriores. Las técnicas de net pruning a) Se aplican solo en redes MLP. b) Acostumbran a usar términos de penalización de complejidad. c) Optimizan las redes neuronales añadiendo nodos ocultos cuando es necesario. d) Se basan en el mismo principio que el método Nyguen & Widrow. e) Ninguna de las anteriores. 21) El uso de un conjunto de patrones de validación a) b) c) d) e) 22) Pertenece a las redes MLP con backpropagation. Puede provocar efectos de memorización. Mejora la capacidad de generalización de la red. Permite disminuir el error sobre los patrones de aprendizaje. Ninguna de las anteriores. Las redes RBF, a) b) c) d) e) 23) El bias del primer nivel es discreto. Tienen dos capas lineales. Las funciones del primer nivel son isótropas. Son competitivas de dos niveles. Ninguna de las anteriores. En la red SOM de Kohonen a) La auto-organización proviene del concepto de vecindad. b) Las conexiones de la capa auto-organizativa corresponden a centroides de los clusters de entradas. c) Solo se actualizan los pesos de la unidad ganadora. d) La capa auto-organizativa es bidimensional y no tiene pesos en sus conexiones. e) Ninguna de las anteriores. 24) a) b) c) d) e) En el modelo neuronal de McCulloch & Pitts Una sinapsis inhibidora se contrarresta con dos excitadoras. Se pueden entrenar redes neuronales de forma adaptativa. No se tiene en cuenta ningún tipo de retardo. Se puede implementar una XOR. Ninguna de las anteriores. 25) En prácticas, a) El algoritmo de backpropagation solo podía usar la sigmoidea bipolar como función de activación. b) La función som.m creaba la estructura de una red de Kohonen con vecindad 0. c) La condición de parada del backpropagation era función del error de validación. d) El LMS se aplicaba a redes mono-capa con función de activación sigmoidea. e) Todas las anteriores. 26) La diferencia entre una RBFN y una CPN es que: a) La RBFN no tiene pesos explícitos en la capa oculta. b) En una RBFN varias unidades de la capa de entrada se pueden activar simultáneamente. c) La respuesta de las unidades RBF es gradual, en lugar de todo-nada. d) La RBFN puede entrenarse usando solo el descenso del gradiente. e) Todas las anteriores. 27) En prácticas, al entrenar una red para que aprenda a cazar moscas como una rana (modelo inverso), a) Es imprescindible normalizar las salidas o cambiar la función de activación para poder modelar el caso real de forma efectiva. b) Le proporcionamos como entradas a la red los ángulos y la distancia necesarios para calcular la posición de la presa. c) Es imprescindible normalizar las entradas para que éstas contribuyan uniformemente al aprendizaje. d) La función frog.m realiza una función análoga a la de la red entrenada. e) Todas las anteriores. 28) El algoritmo de Backpropagation ha de tener en cuenta que: a) Es necesario probar todos los patrones. b) Los términos de error de una capa se calculan después de actualizar los pesos de la capa anterior. c) Los patrones de entrenamiento han de tener el menor ruido posible. d) Los patrones se deben entrar clase a clase. e) Ninguna de las anteriores. 29) Para clasificar un conjunto de datos con frontera circular, el paradigma de red más apropiado es: a) b) c) d) e) RBF SOM CPN MLP Ninguna las anteriores. 30) ¿Cuál de estas técnicas no se usa para evitar problemas de memorización en MLP con backpropagation? a) b) c) d) e) Introducir ruido aleatorio en los patrones de entrenamiento. Añadir el término de momento en el algoritmo. Aumentar la densidad de patrones en las zonas de decisión. Reducir el número de nodos ocultos. Todas las anteriores se pueden usar. 31) En una RBFN de dos entradas y una salida, con unidades RBF definidas por c1=(0.5,1), 1=0.25 y c2=(1,2), 2=1, y vector de pesos de salida w=(1,1), que unidad oculta contribuirá más a la salida de la red al presentar la entrada (1,1)? a) b) c) d) e) La unidad ganadora. La unidad #2. Ambas por igual. La unidad #1. Ninguna de las anteriores. 32) El algoritmo backpropagation es completamente equivalente al LMS si y solo si (condición necesaria y suficiente): a) b) c) d) e) 33) El problema no es linealmente separable. Las entradas y salidas están acotadas en el intervalo [0,1] (o [-1,1]). La red a entrenar es mono-capa. La inicialización de pesos es aleatoria. Ninguna de las anteriores. En una red MLP con Backpropagation: a) El coeficiente de aprendizaje ha de ser constante durante todo el aprendizaje. b) La representación de los datos (binarios o continuos) es independiente del problema. c) La inicialización de los pesos condiciona la velocidad de aprendizaje. d) La mejor manera de detener el aprendizaje es detenerlo después de un número grande de iteraciones. e) Ninguna de las anteriores. 34) En una red MLP con n pesos, si deseamos un error inferior a f sobre el conjunto de validación, el número mínimo de patrones de entrenamiento (P) está acotado por: a) b) c) d) e) P > log[n/(1-f)] · n / (1-f) P > 2n / f P > 10 · n P > n / (1-f) Ninguna de las anteriores. 35) La red ”sombrero mejicano”, a) b) c) d) e) 36) Se puede considerar como una sub-red feedforward. Utiliza el momentum para no caer en mínimos locales. Una red bioinspirada en la inhibición lateral. Es una red hebbiana. Ninguna de las anteriores. En biología molecular, a) El lamarckismo defiende que los rasgos genotípicos son heredables. b) La síntesis de proteínas a partir de DNA se fundamenta en dos pasos esenciales (transcripción y traducción). c) Hay pocos sistemas conocidos de regulación de la expresión genética. d) Existen dos variedades de RNA. e) Todas las anteriores. 37) En biología computacional, a) El plegamiento de una proteína se simula fácilmente a nivel electroquímico. b) Solo unos pocos campos de la informática convencional están implicados. c) Los alineamientos de secuencias se hacen típicamente con secuencias de DNA porque estas están más conservadas que las de proteínas. d) El número de secuencias publicadas anualmente supera el índice de crecimiento de la capacidad de cómputo enunciado por Gordon Moore. e) Todas las anteriores. GLOSARIO DE ACRÓNIMOS: Adaline – Adaptative Linear Element/Neuron ART – Adaptative Resonance Theory CPN – Counter-Propagation Network LMS- Least Mean Square MLP – Multi-Layer Perceptron RBF – Radial Basis Function RBFN – Radial Basis Function Network SOM – Self-Organizing (Feature) Map TLU – Threshold Logic Unit TSP – Traveling Salesman Problem