20381 Bioinformática Examen de primera convocatoria (29/01/04) - Permutación 1 Cada pregunta fallada descuenta ¼ de pregunta acertada. No desgrapar las hojas 1) Si inmediatamente después ( 10-4 segundos) de producirse un potencial de acción en una neurona, la neurona recibe un estímulo suficiente como para producir otro potencial de acción: a) b) c) d) e) El nuevo potencial de acción es mayor que el anterior. No es posible que se reciba un estímulo tan seguido. No se puede producir un nuevo potencial de acción inmediatamente.* Se mantiene el potencial de acción anterior durante más tiempo. Ninguna de las anteriores. 2) En una neurona el potencial de membrana en condiciones de reposo. a) b) c) d) e) Vale cero. Puede valer entre –80mV y +30 mV. Es siempre positivo. Es igual en el interior que en el exterior de la neurona. Ninguna de las anteriores.* 3) En una red multicapa hacemos que la función de activación sea lineal para todas las neuronas a) La red solamente aprende funciones linealmente separables.* b) La red puede aprender cualquier tipo de función siempre que tenga suficientes capas. c) Aumenta la potencia de la red. d) Es el tipo más aconsejable de función de activación ya que es la más simple y el aprendizaje es más rápido. e) Ninguna de las anteriores 4) En un red supervisada el “training set” es el conjunto de parejas de vectores en que las componentes de cada pareja son: a) Todas las entradas usadas para el aprendizaje tomadas de dos en dos. b) Un patrón de entrada y su correspondiente vector de salida calculada por la red. c) Un patrón de entrada y el correspondiente vector de salida deseada. d) Un vector de salida calculada y el correspondiente vector de salida deseada. e) Ninguna de las anteriores 5) Las redes neuronales artificiales se caracterizan fundamentalmente por: a) Estar formadas por elementos complejos de procesamiento. b) Ser sistemas secuenciales c) Ser adaptativas. d) Ser binarias como el sistema nervioso. f) Ninguna de las anteriores. 6) Cual de las siguientes respuestas es cierta: a) b) c) d) e) McCulloch público su modelo de neurona formal en los años 50. Rossemblatt público el algoritmo del Backpropagation en los 70. Rumelhard presentó el Adaline en los 80. Kohonen presentó sus más conocidos resultados en los 60. Ninguna de las anteriores 7) Esta red de McCulloch se comporta de la manera siguiente 2 a b 3 1 a) b) c) d) e) La neurona 3 no se puede disparar nunca La neurona 2 no se puede disparar nunca La neurona 3 se dispara si la neurona 1 se dispara en t=1,3,5, ... La neurona 2 se dispara si la neurona 1 se dispara en t=1,3,5, ... Ninguna de las anteriores 8) Como mínimo cuantas capas y cuantas neuronas en total hacen falta para implementar A-B en una red formada por perceptrones: A-B A a) b) c) d) e) B 1 capa y 6 neuronas. 2 capas y 7 neuronas. 3 capas y 9 neuronas 4 capas y 12 neuronas Ninguna de las anteriores 9) En el algoritmo del Perceptron el paso 2 contiene 3 posibilidades. Cual es la que está bien escrita: 2.1) Si y = d (wi(t - 1) = wi(t)) 2.2) Si y d y y = 0 (d=1) (wi(t - 1) = wi(t) - xi) 2.3) Si y d y y = 1 (d=0) (wi(t + 1) = wi(t) + xi) 2.3’) Si y d y y = 1 (d=0) (wi(t - 1) = wi(t) - xi) a) b) c) d) e) La 2.1) La 2.2) La 2.3) La2.3’) Ninguna de las anteriores 10) El “Adaline” basa su aprendizaje en la minimización de la expresión P P E ( w) E p ( w) (d p y p ) 2 p 1 a) b) c) d) e) p 1 Donde E es la energía del descenso del gradiente P es el conjunto de patrones de aprendizaje y no-aprendizaje E es el error cuadrático Los valores dp, yp son vectores de p componentes Ninguna de las anteriores 11) Una de los pasos de la demostración del teorema de convergencia es utilizar la expresión: 2 ( (k ). * ) 2 (k ) . * 2 a) b) c) d) Basada en la desigualdad de Cauchy-Schwartz Basada en distancia de Hamming Basada en la distancia de Hausdorff. Si se utiliza esta expresión no se puede demostrar el teorema de convergencia. e) Ninguna de las anteriores 12) La función tangente hiperbólica f ( x) e x e x e x ex se utiliza como función de activación entre otras cosas porque tiene una derivada simple. La derivada es: f s(net) f s (net)(1 f s (net)) a) f s(net) f s (net)(1 f s (net)) b) f s(net) f s (net)( f s (net) 1) c) f s(net) ( f s (net) 1)(1 f s (net)) d) e) Ninguna de las anteriores 13) La regla delta generalizada se basa en la expresión que permite hallar la propagación del error en las capas ocultas. Esta expresión tiene la forma general: E p whim1 nm ( mj wijm ) ( f s( net im1 )) y hm2 j 1 En esta expresión puede haberse cometido o no un error voluntario. Escoger la respuesta correcta. a) La expresión es correcta b) Los superíndices en el sumando de delta y de w han de ser m-1 y no m. c) La f’ ha de ser f y no la derivada f’. d) El superíndice de yh ha de ser m-1. e) Ninguna de las anteriores 14) El algoritmo de Backpropagation ha de tener en cuenta que: a) Es necesario probar todos los patrones b) Los patrones de entrenamiento han de tener el menor ruido posible c) Los patrones se deben entrar clase a clase d) Los términos de error de una capa se calculan después de actualizar los de la capa anterior e) Ninguna de las anteriores 15) En una red MLP Backpropagation, a) La inicialización de los pesos condiciona la velocidad de aprendizaje. b) La mejor manera de detener el aprendizaje es detenerlo después de un número grande de iteraciones. c) La representación de los datos (binarios o continuos) es independiente del problema. d) El coeficiente de aprendizaje ha de ser constante durante todo el eprendizaje. e) Ninguna de las nteriores 16) La utilización del momentum en una red MLP Backpropagation no es recomendable cuando la red, a) b) c) d) e) Es muy grande. Es muy pequeña. Utiliza datos binarios. Utiliza la inicialización de Nguyen-Widrow. Ninguna de las anteriores. 17) La red ”sombrero mejicano”, a) b) c) d) e) Es una red hebbiana. Una red bioinspirada en la inhibición lateral. Se puede considerar como una sub-red feedforward. Utiliza el momentum para no caer en mínimos locales. Ninguna de las anteriores. 18) En el algoritmo competitivo básico a) b) c) d) Se debe utilizar siempre la distancia euclídea El resultado final no depende del orden de los patrones. El resultado final es independiente de la inicialización. Usa la combinación convexa para evitar utilizar más neuronas de las necesarias. e) Ninguna de las anteriores. 19) El algoritmo “k-means” a) b) c) d) e) Se inicializa con el método de Nguyen-Widrow Se actualiza la neurona ganadora. Se actualiza el centroide de cada clase. El algoritmo que se explicó tiene un número de clases variable. Ninguna de las anteriores 20) Los mapas autoorganizativos de Kohonen a) b) c) d) e) Son redes competitivas Son redes hebianas Se basan en el descenso del gradiente Todas las anteriores Ninguna de las anteriores. 21) Las redes de Hopfield explicadas a clase son : a) b) c) d) e) Competitivas Realimentadas Feedforward Con valores continuos Ninguna de las anteriores 22) La red ART1 a) b) c) d) e) Es jerárquica. Utiliza patrones continuos. Es feedforward. Es competitiva. Ninguna de las anteriores. 23) Las redes RBF, a) b) c) d) e) Tienen dos capas lineales. Son competitivas de dos niveles. El bias del primer nivel es discreto. Las funciones del primer nivel son isotropas. Ninguna de las anteriores. 24) El punto más importante a tener en cuenta en los proyectos de aplicaciones de redes neuronales es: a) Crear prototipos. b) Centrarse en el desarrollo de nuevos algoritmos. c) Introducir los datos directamente en la red según se obtienen de la fuente de datos. d) Determinar la solución en la fase de diseño. e) Ninguna de las anteriores.