Nuevas Heur´ısticas Inspiradas en la Naturaleza para Optimización

Anuncio
Nuevas Heurı́sticas Inspiradas en la Naturaleza
para Optimización Numérica
Efrén Mezura-Montes1, Omar Cetina-Domı́nguez1 y Betania
Hernández-Ocaña2
1
2
Laboratorio Nacional de Informática Avanzada (LANIA A.C.)
Rébsamen 80, Centro, Xalapa, Veracruz, 91000 MEXICO
emezura@lania.mx,omarcetina@hotmail.com
Universidad Juárez Autónoma de Tabasco
División Académica de Informática y Sistemas
Km. 1 Carr. Cunduacán-Jalpa de Méndez
betania h o@hotmail.com
Resumen En este capı́tulo se presenta una introducción a las heurı́sticas inspiradas
en fenómenos de forrajeo. Se presenta un panorama general de este tipo de propuestas para resolver problemas de optimización y posteriormente se introducen sus
elementos principales. Después de ello, dos algoritmos bio-inspirados son detallados:
La Colonia Artificial de Abejas (ABC) y la versión mejorada de la Optimización
Mediante el Forrajeo de Bacterias (MBFOA). Se explica la forma en que ambos algoritmos representan las soluciones de un problema, la manera de escoger las mejores
soluciones para guiar a las demás en el proceso de búsqueda, los operadores que permiten generar nuevas soluciones a partir de las ya existentes y los mecanismos de
eliminación para mantener aquellas soluciones más competitivas. El uso de ejemplos
numéricos sencillos apoyan el entendimiento de ambos algoritmos que, en esencia,
son muy simples de implementar y usar.
1.
Introducción
Dentro del quehacer humano se encuentra la resolución de problemáticas
complejas. Entre ellas, se encuentran los problemas de optimización, que consisten en buscar, en un conjunto de soluciones posibles para el problema
en cuestión, aquella que satisfaga de mejor manera una serie de condiciones
planteadas. Los problemas de optimización pueden clasificarse en dos tipos:
1. Problemas de optimización numérica: Se busca un conjunto de valores para las variables del problema de manera que al sustituirse en la
función objetivo se maximice o minimice el valor de esta función. Un
ejemplo de este problema puede ser el diseño de una pieza mecánica donde
se buscan valores óptimos de sus dimensiones para minimizar su costo de
fabricación.
2
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
2. Problemas de optimización combinatoria: Se busca encontrar el ordenamiento de un conjunto de elementos de manera que se maximice o
minimice el valor de la función objetivo. Un ejemplo de este tipo de problemas es el del agente viajero, que debe recorrer un conjunto de ciudades,
pasando por ellas sólo una vez, de manera que regrese a su punto de salida
y se minimice el costo del viaje. Aquı́ se desea encontrar el orden óptimo
de recorrido de las ciudades.
Este capı́tulo se centra en el primer tipo de problemas, conocido como
el problema general de programación no lineal, que se define, sin pérdida de
generalidad, como: Encontrar x que minimiza
f (x)
(1)
gi (x) ≤ 0, i = 1, . . . , m
(2)
hj (x) = 0, j = 1, . . . , p
(3)
sujeta a:
donde x ∈ IRn es un vector de n variables de decisión x = [x1 , x2 , . . . , xn ]T
y cada xi , i = 1, ..., n está acotado por lı́mites inferiores y superiores Li ≤
xi ≤ Ui , los cuales definen el espacio de búsqueda S, F es el conjunto de
todas las soluciones que satisfacen las restricciones del problema y se le llama
zona factible, siendo claro que F ∈ S, m es el número de restricciones de
desigualdad y p es el número de restricciones de igualdad. Las restricciones y
la función objetivo pueden ser lineales y no lineales.
En este problema se pretende encontrar una solución que minimice una
cierta medida de calidad, conocida como función objetivo (1) que además
debe satisfacer un conjunto de restricciones asociadas al problema (2)-(3).
Detallando el ejemplo propuesto anteriormente sobre el diseño de la pieza
mecánica, se quiere encontrar su costo mı́nimo de construcción, el cual se
modela mediante una función (no lineal tal vez) y que depende de variables
como el largo y el ancho de la pieza, ası́ como el grosor del material. Además,
pueden existir restricciones de espacio, de manera que la pieza no puede ser
ni muy grande ni muy chica, pues debe incorporarse a un mecanismo más
grande.
1.1.
Técnicas de Optimización
La Investigación de Operaciones (IO) es el área dentro de las matemáticas
dedicada al estudio, entre otros temas, de técnicas para la resolución de problemas de optimización. La IO plantea la determinación del mejor curso de
acción de un problema de decisión con la restricción de productos limitados [1]. Deb [2] clasifica las técnicas para resolver problemas de optimización
numérica en las siguientes categorı́as:
Nuevas Heurı́sticas para Optimización Numérica
3
1. Métodos tradicionales
Técnicas de variable simple: Divididas en métodos directos (utilizan la
función a optimizar para guiar la búsqueda) y de gradiente (utilizan
información del gradiente para guiar la búsqueda).
Técnicas multivariable: Divididas en métodos directos y de gradiente.
Realizan búsquedas en múltiples dimensiones, valiéndose, en ocasiones,
de técnicas de variable simple.
Técnicas para problemas con restricciones: Realizan búsquedas en espacios restringidos, usualmente utilizando técnicas multivariable y/o
de variable simple de manera iterativa.
Técnicas especializadas: Métodos para problemas particulares como
programación entera (variables que sólo toman valores enteros).
2. Métodos no tradicionales. Métodos que incorporan conceptos heurı́sticos
para mejorar la búsqueda.
Este capı́tulo se centrará precisamente en dos propuestas novedosas que
forman parte de los métodos no tradicionales para resolver problemas de optimización numérica.
1.2.
Métodos no tradicionales (heurı́sticas)
Dada la existencia de múltiples formas de resolver el problema de optimización numérica en su forma más general, una pregunta justa es ¿Por
qué recurrir a métodos no tradicionales? La justificación para utilizar métodos heurı́sticos puede basarse en las caracterı́sticas de los problemas del mundo
real, que pueden ser tan particulares que hacen difı́cil (y a veces imposible)
el aplicar los métodos tradicionales en su resolución. Por otro lado, existen
problemas donde estos métodos pueden ser aplicados, sin embargo los resultados y/o el tiempo requerido para obtener una solución no son los esperados
por quien resuelve el problema. Se pueden distinguir fuentes de dificultad al
tratar de resolver problemas de optimización [3]:
El número de posibles soluciones (espacio de búsqueda) es demasiado
grande.
El problema es tan complicado que, con la intención de obtener alguna
solución, se deben utilizar modelos simplificados del mismo y por ende la
solución es poco útil.
La función de evaluación que describe la calidad de cada solución en el
espacio de búsqueda varı́a con el tiempo y/o tiene ruido.
Las soluciones posibles están altamente restringidas, lo cual dificulta incluso la generación de al menos una solución factible (es decir, que cumpla
con las restricciones del problema).
Los métodos tradicionales siempre deben considerarse como la primera
opción para resolver un problema de optimización, dado que pueden garantizar
la convergencia al óptimo global (la mejor de todas las posibles soluciones)
4
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
bajo ciertas condiciones. Sin embargo, si la aplicación del método tradicional
es compleja, el costo computacional es alto y/o los resultados son buenos pero
no los esperados (óptimas locales, soluciones buenas en una cierta zona del
espacio de búsqueda, pero que no son mejores que el óptimo global), entonces
puede considerarse el uso de un método no tradicional, una heurı́stica.
Los métodos heurı́sticos no pueden garantizar el encontrar la mejor solución de un problema, sin embargo, devolverán una solución aceptable en un
tiempo razonable; de ahı́ la importancia de su estudio. De hecho, existe en la
literatura especializada una gran cantidad de publicaciones donde se destacan
casos de éxito del uso de métodos no tradicionales en la solución de problemas
complejos [4, 5, 6].
Heurı́sticas con probado éxito en la resolución de problemas numéricos y
combinatorios son, por ejemplo, el recocido simulado [7], que basa su funcionamiento en el proceso fı́sico del tratamiento térmico de materiales, donde
el material es calentado inicialmente a altas temperaturas y después, mediante
una variación de temperatura muy puntual, es enfriado. La intención es que el
material obtenga caracterı́sticas particulares en el proceso. Esta idea ha sido
utilizada para resolver problemas de optimización (numérica principalmente)
agregando una temperatura inicial y un horario de enfriamiento que permite
disminuirla gradualmente de manera que el algoritmo de búsqueda seleccione
una nueva solución aunque no mejore el valor de calidad de la solución que se
tenga en ese momento. Con ello, se agrega un aspecto estocástico al proceso
de búsqueda con la intención de evitar óptimos locales. Otra heurı́stica, que
en su propuesta original no agrega aspectos aleatorios, pero que pueden ser
incluidos, es la Búsqueda Tabú [8], la cual utiliza una “memoria” para almacenar movimientos (soluciones) previamente realizados (encontradas) y evitar
realizarlos (recorrerlas) de nuevo. Las estructuras de memoria pueden tener
diferente vigencia (corto, mediando o largo plazo) dependiendo de la complejidad del problema a resolver. De ahı́ que la implementación de la Búsqueda
Tabú puede requerir de mecanismos adicionales de búsqueda y estructuras de
datos adecuadas para realizar un recorrido eficaz y eficiente de la memoria y
evitar que este manejo sea aún más costoso que la optimización misma. La
búsqueda Tabú se ha aplicado principalmente en problemas de optimización
combinatoria.
Dentro de los métodos heurı́sticos (o no tradicionales) se tiene un grupo
que basa su funcionamiento en fenómenos “inteligentes” encontrados en la
naturaleza y conocidos como heurı́sticas bio-inspiradas [9] o algoritmos bioinspirados. Dos sub-grupos se distinguen de acuerdo con el tipo de fenómeno
natural en el que se basan:
1. Algoritmos evolutivos [10]
2. Inteligencia colectiva [9]
Los algoritmos evolutivos basan su funcionamiento en la teorı́a de la evolución de las especies, la supervivencia del más apto y la transmisión de caracterı́sticas de padres a hijos [11]. Por otro lado, la inteligencia colectiva toma
Nuevas Heurı́sticas para Optimización Numérica
5
comportamientos de seres vivos que interactuan de manera local con su ambiente, y de esa interacción surgen comportamientos sociales que permiten a
estos seres, simples de manera individual, resolver problemáticas complejas
de manera conjunta (parvadas de aves, bancos de peces, cúmulos de insectos,
hormigas, bacterias, entre otros) [9].
En este capı́tulo se analizarán dos heurı́sticas bio-inspiradas basadas en
inteligencia colectiva:
1. La colonia artificial de abejas.
2. La optimización mediante el forrajeo de bacterias.
Este capı́tulo está organizado como sigue: En la Sección 2 se presentan
los componentes de un algoritmo bio-inspirado. Posteriormente la Sección 3
presenta a la colonia artificial de abejas y la optimización mediante el forrajeo
de bacterias se detalla en la Sección 4. Finalmente, las conclusiones se resumen
en la Sección 5.
2.
Componentes de un algoritmo bio-inspirado
Los algoritmos evolutivos y de inteligencia colectiva, de manera general,
trabajan de la siguiente manera, véase la Figura 1:
1. Generar un conjunto (población) de soluciones (individuos) al problema.
2. Evaluar cada solución en la función objetivo a optimizar (1).
3. Seleccionar las mejores soluciones de la población con base en su valor en
la función objetivo (1).
4. Generar nuevas soluciones a partir de las mejores soluciones utilizando
operadores de variación.
5. Evaluar las nuevas soluciones.
6. Escoger las soluciones que formarán parte de la siguiente iteración (generación).
Aunque existen diferencias especı́ficas entre los diversos algoritmos evolutivos y aquellos de inteligencia colectiva, tienen componentes comunes, los
cuales se enumeran a continuación:
Representación de soluciones: Las soluciones se pueden representar de
diferentes formas (cadenas binarias, números enteros). Para el caso de la
optimización numérica, la representación más adecuada es utilizar números
reales, puesto que las variables en este tipo de problemas suelen tomar
precisamente este tipo de valores. Por ende, cada solución consistirá de un
vector de números reales.
Mecanismo de selección: La guı́a de la búsqueda se realiza mediante
este mecanismo o en el reemplazo (explicado más adelante). La intención
es escoger un subconjunto de soluciones de la población que tengan caracterı́sticas sobresalientes, de manera que puedan generar nuevas soluciones
6
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
aún mejores. El criterio para escoger depende del valor de la función objetivo (1) de cada solución.
Operadores de variación: Los operadores de variación son los que permiten generar nuevas soluciones a partir de las soluciones existentes (aquellas escogidas con los mecanismos de selección). Los operadores emulan
comportamientos como la reproducción (cruzas), variaciones aleatorias a
nivel genético (mutaciones) o movimientos cooperativos (giros, nados, vuelos).
Mecanismos de reemplazo: Una vez que se tienen, tanto al conjunto de
soluciones actuales además de las recién generadas, se utilizan mecanismos
para escoger aquellas que formarán parte de la población para la siguiente
generación. Este proceso puede basarse en la calidad de cada solución (1),
en la “edad” de las soluciones, o tomando en cuenta aspectos estocásticos.
Inicio
Poblacion
Fin
Seleccion
Reemplazo
Nuevas
Soluciones
Soluciones
seleccionadas
Operadores
de variacion
Figura 1. Esquema general de un algoritmo bio-inspirado.
Con base en los componentes antes descritos se presentarán dos algoritmos
heurı́sticos de la inteligencia colectiva: La Colonia Artificial de Abejas (ABC)
y la Optimización Mediante el Forrajeo de Bacterias (BFOA).
3.
La Colonia Artificial de Abejas
El proceso de búsqueda de néctar en las flores por parte de abejas melı́feras
ha sido visto como un proceso de optimización. La forma en la que este tipo
de insectos sociales logran centrar esfuerzos en zonas con altas cantidades de
fuentes de alimento se ha modelado como una heurı́stica para optimización.
A pesar de que existen diversos modelos basados en abejas [12], para efectos
de este trabajo la explicación se basará en el modelo propuesto por Karaboga
Nuevas Heurı́sticas para Optimización Numérica
7
[13] que resuelve problemas de optimización numérica mediante dos comportamientos: El reclutamiento de abejas en una fuente de alimento y el abandono
de una fuente.
El modelo biológico de recolección de alimento en abejas melı́feras consta
de los siguientes elementos mı́nimos [13]:
Fuentes de alimento: El valor de una fuente de alimento depende de
muchos factores, como lo son la cercanı́a a la colmena, la concentración de
alimento y la facilidad para extraerlo. Por simplicidad es posible representar la rentabilidad de una fuente en un solo valor numérico.
Recolectoras empleadas: Estas abejas están asociadas con una fuente
particular de alimento la cual están explotando, es decir, están empleadas
para con ella. Las abejas empleadas comparten la información sobre su
fuente de alimento, como la ubicación y rentabilidad hacia las abejas
recolectoras.
Recolectoras desempleadas: Están constantemente buscando una fuente
de alimento a la cual explotar. Hay dos tipos de recolectora desempleada:
la exploradora, que busca en las cercanı́as de la colmena por nuevas fuentes
de alimento y la observadora, que espera en la colmena y elige una fuente
de alimento con base en la información compartida por una recolectora
empleada.
La información sobre las fuentes de alimento es compartida por las recolectoras empleadas por medio de una danza cuya duración indica la rentabilidad
de la fuente, el ángulo con respecto al sol indica la dirección de la fuente y el
número de movimientos en zig-zag durante la danza indica la distancia. Dado
que las danzas de las fuentes más rentables son de mayor duración, existe una
mayor probabilidad de ser observada por recolectoras desempleadas, aumentando la probabilidad de que una recolectora elija dicha fuente de alimento.
Cuando una fuente de alimento se agota, la abeja o abejas empleadas en
ellas se convierten en abejas desempleadas y tendrán que decidir entre convertirse en abejas exploradoras o regresar a la colmena como abejas observadoras.
En el algoritmo ABC la colonia de abejas artificiales se compone también
de 3 grupos de abejas: abejas empleadas, abejas observadoras y abejas exploradoras. El número de abejas empleadas es usualmente igual al número de
fuentes de alimento y se asignará una abeja empleada a cada una de las fuentes.
Al llegar a dicha fuente, la abeja calculará una nueva solución (volará hacia
otra fuente de alimento cercana) a partir de ésta y conservará la mejor solución. El número de abejas observadoras es también usualmente igual al de
abejas empleadas y se asignarán a una fuente de alimento con base en la aptitud de éstas, al igual que las abejas empleadas, calculará una nueva solución
a partir de su fuente de alimento. Cuando una fuente no mejora después de
un cierto número de iteraciones se abandona, siendo reemplazado por aquella
encontrada por una abeja exploradora, lo cual implica calcular una nueva solución aleatoriamente. Una de las ventajas de este algoritmo es el bajo número
de parámetros que requiere como puede verse en la Tabla 1.
8
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
Tabla 1. Parámetros del ABC.
Nombre
Sı́mbolo
Descripción
Número de soluciones SN Número de soluciones (fuentes de alimento)
Número de ciclos
M CN Número total de ciclos (iteraciones) que
ejecutará el ABC
Lı́mite
limit Número de ciclos que se conservará una
solución sin mejora antes de ser reemplazada por una nueva generada por una abeja
exploradora
3.1.
Elementos del ABC
Representación de soluciones
La representación de las soluciones se lleva a cabo mediante fuentes de
alimento, que no son más que vectores de D-dimensiones (donde D es el
número de variables del problema). La representación gráfica se muestra en
la Figura 2 y la representación vectorial de la solución i en el ciclo g es la
presentada en (4):
xi,g , i = 1, . . . , SN, g = 1, . . . , M CN
2.1
2.9
10.1
(4)
7.0
Figura 2. Representación de una solución asumiendo 4 variables con números reales.
Cada una de las variables que forma parte de la solución está asociada a
un rango (Li ≤ xi ≤ Ui ), el cual se debe de tomar en cuenta al momento
de generar de manera aleatoria, con una distribución uniforme, las soluciones
(fuentes de alimento) iniciales.
Mecanismos de selección
La forma en que se seleccionan las mejores soluciones es mediante la comunicación entre abejas empleadas y abejas observadoras, de manera que
aquellas fuentes de comida con mejor calidad serán más visitadas. El detalle
de este funcionamiento se verá más adelante.
Nuevas Heurı́sticas para Optimización Numérica
9
Operadores de variación (las abejas)
En el ABC, las abejas son vistas como operadores de variación, pues cuando una de ellas llega a una fuente de alimento, calcula una nueva solución
candidata vi,g utilizando la fórmula dada en (5). En donde xi,g representa la
solución en la que la abeja se encuentra en ese momento, xk,g es una fuente
de alimento aleatoria (y distinta de xi,g ), g es el número de ciclo actual del
programa y φ es un número real aleatorio en el intervalo [-1,1].
vi,g = xi,g + φ · (xi,g − xk,g )
(5)
En la Figura 3 puede verse un ejemplo gráfico de este cálculo. En primer
lugar se observa en la Figura 3(a) el vector que es generado mediante la diferencia entre xi y xk . Posteriormente se genera la solución candidata utilizando
(5) en la Figura 3(b). Se nota que v y v ′ se generaron utilizando el mismo
valor de φ pero con signo opuesto. Ésto es posible porque el intervalo de φ lo
permite ([-1,1]).
Y
Y
xk
xk
xi− xk
v
xi
xi
v’
X
(a)
X
(b)
Figura 3. (a) El vector generado por la diferencia entre xi y xk . (b) Dos posibles
soluciones candidatas generadas utilizando (5) y el mismo valor φ con signo opuesto.
Mecanismos de reemplazo
La forma de eliminar soluciones (fuentes de comida) es mediante las abejas exploradoras, que dado el abandono de fuentes de comida no mejoradas
en varios ciclos del algoritmo, generan nuevas fuentes de comida de manera
totalmente aleatoria.
3.2.
Pasos del algoritmo ABC
A continuación se detalla el funcionamiento del algoritmo ABC, que puede
observarse en la Figura 4. Se comienza inicializando las soluciones que representarán las fuentes de alimento iniciales, siendo SN el número de soluciones
10
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
(uno de los parámetros del algoritmo). Se evalúan estas soluciones y se procede
con un ciclo que se repetirá M CN veces, dónde M CN es el número de ciclos
máximo. Dentro de este ciclo se comienza con enviar a las abejas empleadas
a las fuentes de alimento y calcular nuevas soluciones candidatas utilizando
(5), posteriormente se utiliza una selección ambiciosa en la cual se conserva la
mejor solución entre la fuente de alimento y su respectiva solución candidata.
Con base en la aptitud de las fuentes de alimento que se conserven después
del paso anterior se determina cuáles soluciones serán visitadas por abejas
observadoras. Las abejas observadoras visitarán estas soluciones y generarán
soluciones candidatas utilizando (5). Posteriormente se realizará una selección
ambiciosa entre las soluciones candidatas y la solución respectiva (de manera
similar que con las abejas empleadas).
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Begin
Inicializar la población de soluciones xi,0 , i = 1, . . . , SN
Evaluar la población
g=1
Repeat
Producir nuevas soluciones vi,g para las abejas empleadas
utilizando (5) y evaluarlas
Conservar la mejor solución entre la actual y la candidata
Seleccionar las soluciones que serán visitadas por una abeja
observadora según su aptitud
Producir nuevas soluciones vi,g para las abejas observadoras
utilizando (5) y evaluarlas
Conservar la mejor solución entre la actual y la candidata
Determinar si existe una fuente abandonada y reemplazarla
utilizando una abeja exploradora
Memorizar la mejor solución encontrada hasta este momento
g =g+1
Until g = M CN
End
Figura 4. Algoritmo Colonia Artificial de Abejas (ABC)
Posteriormente se determina si existe alguna solución abandonada; ésto
sucede cuando una solución no es mejorada (no es reemplazada por una solución candidata), durante el número de ciclos establecido por la variable Lı́mite.
Lı́mite esta dada por la fórmula (SN ∗ D) donde SN es el número de soluciones y D es el número de variables del problema. De encontrarse alguna
fuente abandonada se reemplaza con una nueva encontrada por una abeja
exploradora, que en este caso es una nueva solución calculada aleatoriamente
dentro del espacio de búsqueda.
Nuevas Heurı́sticas para Optimización Numérica
11
Finalmente la mejor solución encontrada durante el ciclo se compara con
la mejor solución en memoria y si tiene una mejor aptitud la reemplazará. Se
repite el ciclo M CN veces.
3.3.
Ejemplo de funcionamiento
A continuación se presenta un ejemplo de funcionamiento del ABC aplicado a una función conocida como la esfera, detallada en (6):
Minimizar: f (x1 , x2 ) = x21 + x22
(6)
Los intervalos para las variables se muestran en (7):
−5 ≤ x1 ≤ 5
−5 ≤ x2 ≤ 5
x1 , x2 ∈ R
(7)
Los valores de los parámetros del ABC para este ejemplo se muestran en
la Tabla 2.
Tabla 2. Parámetros de ABC empleados en la función de la esfera.
Parámetro Valor
SN
5
M CN
2
limit
10
Siguiendo el algoritmo mostrado en la Figura 4, primero se inicializa el
contador de generaciones con el valor de 0, posteriormente se crea población
inicial de manera aleatoria (la cual está dentro del rango especificado en la
Tabla 2) y se muestra en la Tabla 3.
Tabla 3. Población inicial, el valor de la función para cada individuo se encuentra
en la cuarta columna.
Fuente
1 (x1,0 )
2 (x2,0 )
3 (x3,0 )
4 (x4,0 )
5 (x5,0 )
x1
0.5
-0.2
-0.4
0.2
0.1
x2
0.3
0.1
-0.7
0.05
0.9
f (xi )
0.34
0.05
0.65
0.0425
0.82
Posteriormente se tiene que evaluar cada una de las fuentes de alimento
en la función objetivo. Estos valores se muestran en la cuarta columna de la
Tabla 3.
12
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
Se inician ahora los ciclos del algoritmo donde el primer paso es enviar
las abejas empleadas a las fuentes de alimento y generar nuevas soluciones
candidatas, para ello se utilizan los siguientes valores aleatorios que pueden
verse en la Tabla 4.
Tabla 4. Valores aleatorios para las abejas empleadas en el ciclo 1.
Empleada
1
2
3
4
5
k
3
1
5
2
1
φ1
-0.1
0.2
0.7
-0.5
0.3
φ2
0.2
0.5
-0.3
0.7
-0.1
Para la primera abeja empleada se calcula la nueva solución candidata
utilizando la fórmula definida por el algoritmo (5) v11 = (0.5) + (−0.1 ∗ (0.5 −
(−0.4))) = 0.41 y de la misma forma v12 = (0.3) + (0.2 ∗ (0.3 − (−0.7))) = 0.5,
resultando en un valor de la función objetivo de 0.4181.
Para la abeja empleada 2 se tiene v21 = (−0.2) + (0.2 ∗ (−0.2 − (0.5))) =
−0.34 y v22 = (0.1) + (0.5 ∗ (0.1 − (0.3))) = 0 y un valor de la función objetivo
de 0.1156.
Para la abeja empleada 3 se tiene v31 = (−0.4) + (0.7 ∗ (−0.4 − (0.1))) =
−0.75 y v32 = (−0.7)+(−0.3∗(−0.7−(0.9))) = −0.22 y un valor de la función
objetivo de 0.6109.
Para la abeja empleada 4 se tiene v41 = (0.2) + (−0.5 ∗ (0.2 − (−0.2))) = 0
y v42 = (0.05) + (0.7 ∗ (0.05 − (0.1))) = 0.015 y un valor de la función objetivo
de 0.000225.
Para la abeja empleada 5 se tiene v51 = (0.1) + (0.3 ∗ (0.1 − (0.5))) = −0.02
y v52 = (0.9) + (−0.1 ∗ (0.9 − (0.3))) = 0.84 y un valor de la función objetivo
de 0.706.
Se compara el valor de la fuente de alimento con el de la solución candidata
calculada a partir de ella y se conserva la mejor solución, quedando por lo tanto
como soluciones hasta el momento los que se muestran en la Tabla 5.
Tabla 5. Fuentes de alimento después de la primera ronda de abejas empleadas.
Fuente
1 (x1,1a )
2 (x2,1a )
3 (x3,1a )
4 (x4,1a )
5 (x5,1a )
x1
0.5
-0.2
-0.75
0
-0.02
x2
0.3
0.1
-0.22
0.015
0.84
f (x)
0.34
0.05
0.6109
0.000225
0.706
Nuevas Heurı́sticas para Optimización Numérica
13
El siguiente paso es enviar las abejas observadoras a las mejores fuentes de
alimento (con base en su aptitud), utilizando algún mecanismo de selección
proporcional. Por motivos de simplicidad, para este ejemplo se determinó enviar tres abejas observadoras a la mejor solución (fuente de alimento 4) y
las dos restantes a la segunda mejor (fuente 2). Los valores aleatorios para
calcular las soluciones candidatas pueden verse en la Tabla 6.
Tabla 6. Valores aleatorios para las abejas observadoras en el ciclo 1.
Observadora Fuente elegida
1
4
2
4
3
4
4
2
5
2
k
3
2
5
4
1
φ1
0.2
-0.16
-0.3
0.23
-0.1
φ2
-0.15
0.2
0.12
-0.02
0.3
Se calculan las soluciones candidatas para las abejas observadoras a partir
de la fuente seleccionada. Para la observadora 1 v11 = 0.1725, v12 = 0.0103
y f (x) = 0.02986234. La observadora 2 v21 = 0.046, v22 = 0.0167 y f (x) =
0.00239489. Para la observadora 3 v31 = 0.0046, v32 = 0.0315 y f (x) =
0.00101341. En la observadora 4 encontramos v41 = −0.168, v42 = 0.117 y
f (x) = 0.041913. Para la observadora 5 v51 = −0.088, v52 = 0.06 y f (x) =
0.011344.
Se verifica si alguna de las soluciones candidatas mejora su respectiva
fuente de alimento. Ésto sucede para la abeja observadora 5 y la fuente de
alimento 2. Realizando el reemplazo las fuentes de alimento al final del ciclo
1 quedan como se muestra en la Tabla 7.
Tabla 7. Fuentes de alimento después de la primera ronda de abejas observadoras.
Fuente
1 (x1,1 )
2 (x2,1 )
3 (x3,1 )
4 (x4,1 )
5 (x5,1 )
x1
0.5
-0.088
-0.75
0
-0.02
x2
0.3
0.06
-0.22
0.015
0.84
f (x)
0.34
0.011344
0.6109
0.000225
0.706
El ciclo 2 inicia con el cálculo de soluciones candidatas para cada fuente
de alimento, es decir, con las abejas empleadas. A continuación se presenta la
tabla con los valores aleatorios utilizados para el cálculo en la Tabla 8.
La empleada 1 da los siguientes resultados v11 = 0.5588, v12 = 0.084 y
f (x) = 0.31931344. La empleada 2: v21 = −0.0616, v22 = 0.07125 y f (x) =
0.008871123. Empleada 3: v31 = −1.042, v3,2 = 0.0662 y f (x) = 1.09014644.
14
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
Tabla 8. Valores aleatorios para las abejas empleadas en el ciclo 2.
Empleada
1
2
3
4
5
k
2
4
5
2
3
φ1
0.1
-0.3
0.4
-0.05
0.3
φ2
-0.9
0.25
-0.27
0.2
-0.1
Empleada 4: v41 = −0.0044, v42 = 0.006 y f (x) = 5.536E-05. Empleada 5:
v51 = 0.199, v52 = 0.734 y f (x) = 0.578357.
Las fuentes de alimento que son mejoradas por una solución candidata son
reemplazadas y se presentan los resultados a continuación en la Tabla 9.
Tabla 9. Fuentes de alimento después de la segunda ronda de abejas empleadas.
Fuente
1 (x1,2a )
2 (x2,2a )
3 (x3,2a )
4 (x4,2a )
5 (x5,2a )
x1
0.5588
-0.0616
-0.75
-0.0044
0.199
x2
0.084
0.07125
-0.22
0.006
0.734
f (x)
0.31931344
0.008871123
0.6109
5.536E-05
0.578357
Para las abejas observadoras nuevamente se utilizan tres abejas en la mejor
solución (fuente 4) y dos abejas en la segunda mejor (fuente 2) con la intención
de representar una selección proporcional con base en la aptitud de la fuente
de alimento. Los valores aleatorios utilizados se muestran en la Tabla 10.
Tabla 10. Valores aleatorios para las abejas observadoras en el ciclo 2.
Observadora Fuente elegida
1
4
2
4
3
4
4
2
5
2
k
1
2
3
5
4
φ1
0.2
-0.51
-0.3
0.01
-0.1
φ2
-0.15
0.2
0.12
0.9
0.3
Se calculan las soluciones candidatas para las abejas observadoras a partir
de la fuente seleccionada. Para la observadora 1 v11 = −0.010032, v12 =
−0.0642 y f (x) = 0.004222281. La observadora 2 v21 = −0.003828, v22 =
−0.052725 y f (x) = 0.002794579. Para la observadora 3 v31 = 0.003056, v32 =
0.2094 y f (x) = 0.043857699. En la observadora 4 se tiene v41 = 0.071306,
Nuevas Heurı́sticas para Optimización Numérica
15
v42 = −0.0613 y f (x) = 0.008842236. Para la observadora 5 v51 = −0.032428,
v52 = 0.0843 y f (x) = 0.008158065.
Se verifica si alguna solución candidata mejora una fuente de alimento
y es claro que ésto se cumple con la observadora 5 y la fuente de alimento
2, después de realizar el reemplazo el resultado final después del ciclo 2 se
presenta a continuación en la Tabla 11
Tabla 11. Fuentes de alimento después de la segunda ronda de abejas observadoras.
Fuente
1 (x1,2 )
2 (x2,2 )
3 (x3,2 )
4 (x4,2 )
5 (x5,2 )
x1
0.5588
-0.032428
-0.75
-0.0044
0.199
x2
0.084
0.0843
-0.22
0.006
0.734
f (x)
0.31931344
0.008158065
0.6109
5.536E-05
0.578357
La solución a reportar será la fuente 4, con x1 = −0.0044, x2 = 0.006 y
f (x) = 5.536E-05
Como datos adicionales, el mı́nimo global de esta función se encuentra en
el punto [0,0], en donde f (x) = 0. En este ejemplo la variable lı́mite y las
abejas exploradoras no fueron utilizadas ya que el número de ciclos era menor
al valor de lı́mite que está definido por el número de fuentes de alimento por
el número de variables del problema a resolver (5 ∗ 2 = 10).
4. Optimización Mediante el Forrajeo de Bacterias
(BFOA)
El BFOA original, fue propuesto por K.M. Passino [14], el cual simula
el proceso completo de forrajeo de la bacteria E. Coli: Chemotaxis o paso quimiotáctico (movimientos de giro y nado), reproducción y eliminacióndispersión. El modelado de la búsqueda de alimento (concentración de nutrientes óptima) que realizan las bacterias contempla las siguientes etapas:
Inicialmente, las bacterias son distribuidas al azar sobre el mapa de nutrientes.
En una primera etapa las bacterias (E. Coli) se mueven hacia los puntos de concentración de nutrientes (dentro de esta generación ocurre una
eliminación y dispersión, algunas bacterias se encuentran en puntos malos
(sustancias nocivas), después ocurre la reproducción y posteriormente casi
todas las bacterias se colocan en puntos de concentración de nutrientes.
En una segunda etapa las bacterias han encontrado los puntos de concentración de nutrientes, aunque no todos estos puntos son óptimos, es decir,
los más altos de concentración de nutrientes. Sin embargo, se agrupan
utilizando una comunicación mediante segregación de atrayentes.
16
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
En una tercera etapa las bacterias encuentran el punto más alto de concentración de nutrientes.
En una cuarta etapa las bacterias permanecen en ese punto y la búsqueda
de alimento ha terminado; se dispersan nuevamente y buscan una nueva
fuente de nutrientes (las etapas se repiten).
Durante estas etapas las bacterias se enfrentan a varias problemáticas en la
búsqueda de sus alimentos, por ejemplo: Ambientes nocivos que deben detectar y evitar en su viaje pues causan la eliminación y dispersión (para ello estas
bacterias se agrupan y son capaces de producir y segregar sustancias quı́micas
que son usadas como mecanismos de señalización y comunicación entre ellas),
el tiempo de vida de las bacterias y finalmente el recorrido que tienen que
hacer para encontrar el punto óptimo de concentración de nutrientes, entre
otros.
Debido a que el algoritmo de Passino (BFOA) requiere de muchos parámetros y su costo computacional es alto, la versión modificada del BFOA, propuesta en [15] y llamada MBFOA es la utilizada en este capı́tulo.
4.1.
Elementos del MBFOA
Representación de soluciones
La representación de las soluciones, al igual que para el caso del ABC,
se lleva a cabo mediante vectores de números reales llamados bacterias y
representados en (8) por la letra θ, donde θi (j, G) representa la bacteria i, en
su ciclo quimiotáctico j, en la generación G y Sb es el número total de bacterias
en la población. La representación gráfica es similar a la de las soluciones del
ABC en la Figura 2.
θi (j, G), ∀i = 1, . . . , Sb
(8)
Mecanismos de selección
Para el caso de las bacterias, el proceso de selección se realiza dentro del
paso quimiotáctico, donde cada bacteria se moverá de manera constante en
una misma dirección, generada de manera aleatoria, hacia una nueva posición
siempre y cuando sea de mejor calidad que la previa. A este proceso dentro del
ciclo quimiotáctico se le conoce como nado. Si al pasar a una nueva posición y
ésta es de menor calidad, la bacteria realizará un giro para buscar una nueva
dirección de búsqueda siempre buscando mejorar la calidad de su posición.
Operadores de variación
Existen dos operadores a utilizar en MBFOA, el nado-giro (mencionado
anteriormente) y el swarming. El nado giro consiste en generar una dirección
aleatoria mediante un vector normalizado usando (9):
Nuevas Heurı́sticas para Optimización Numérica
∆(i)
φ(i) = p
∆(i)T ∆(i)
17
(9)
donde ∆(i) es un vector del mismo número de dimensiones que las variables
del problema a resolver y generado aleatoriamente con sus elementos dentro
del intervalo: [−1, 1]. A este paso se le conoce como giro. Después de ello,
cada bacteria θi (j, G) modifica su posición mediante el nado como se indica
en (10).
θi (j + 1, G) = θi (j, G) + Cnew (i)φ(i)
(10)
donde θi (j + 1, G) es la nueva posición de la bacteria i, θi (j, G) es la posición
actual de la bacteria i, φ(i) es el vector de dirección aleatoria calculado en (9)
y Cnew (i) es el tamaño de paso (la “longitud de movimiento” de la bacteria
calculada mediante (11)).
√ Cnew (i) = R ∗ ∆xi / n
(11)
donde ∆xi se calcula restando los lı́mites superior e inferior de cada variable
i, Ui − Li , n es el número de variables del problema y R es el porcentaje de
este tamaño de paso total a ser utilizado en el proceso de búsqueda (se sugiere
0.2 ≤ R ≤ 0.5. Estos tamaños de paso permanecen constantes durante todo
el funcionamiento del algoritmo.
El nado, representado en (10), se repite Ns veces si la nueva posición es
mejor que la previa : f (θi (j + 1, G)) < f (θi (j, G)).
El operador de swarming se lleva a cabo cuando la mejor bacteria de la
población atrae hacia sı́ a las demás. Este proceso sucede a la mitad y al
final de cada ciclo quimiotáctico (en los restantes pasos se usa el nado-giro)
utilizando (12).
i
θi (j + 1, G) = θi (j, G) + β(θB (G) − θi (j, G))
(12)
B
donde θ (j + 1, G) es la nueva posición de la bacteria i, θ (G) es la posición
actual de la mejor bacteria en la generación G y 0 ≤ β ≤ 1 es un factor
de escalamiento que determina qué tan cerca estará la bacteria i de la mejor
bacteria B.
Mecanismos de reemplazo
En MBFOA se tienen dos etapas de eliminación de soluciones: En el momento de la reproducción se mantiene sólamente a la mitad de la población
de soluciones y se elimina a la otra mitad, sustituyéndolas por copias de las
mejores bacterias (simulando la división de una bacteria en dos nuevas bacterias). Posteriormente, el proceso de eliminación-dispersión elimina la peor
bacteria de la población.
18
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
4.2.
Pasos del algoritmo MBFOA
Dados los operadores y mecanismos de selección y reemplazo, los operadores requeridos por MBFOA se resumen en la Tabla 12. Además, el pseudocódigo de este algoritmo heurı́stico se encuentra en la Figura 5.
Tabla 12. Parámetros del MBFOA
Nombre
Bacterias
Generaciones
Sı́mbolo Descripción
Sb
Número de bacterias en la población.
GMAX Número de generaciones que se ejecutará
todo el procedimiento: Ciclo quimiotáctico, de
reproducción y eliminación-dispersión.
Ciclo quimiotáctico
Nc
Número de veces que cada bacteria en la
población podrá nadar o girar.
Reproducción
Sr
Número de bacterias a reproducirse.
Escalamiento
β
Factor de escalamiento que determina cuánto
avanzará una bacteria hacia la mejor bacteria
de la población.
Porcentaje del tamaño
R
Porcentaje del rango permitido para las
de paso
variables que se usará como tamaño de paso.
Begin
Inicializar la población de soluciones (bacterias) θi (0, 0) ∀i, i = 1, . . . , Sb
Evaluar la población de bacterias f (θi (0, 0)) ∀i, i = 1, . . . , Sb
For G=1 to GM AX Do
For i=1 to Sb Do
For j=1 to Nc Do
Realizar el paso quimiotáctico (giro-nado y swarming)
para la bacteria θi (j, G) usando (10) y (12)
End For
End For
Realizar la reproducción eliminando las Sr peores
bacterias y duplicando cada una de las (Sb − Sr ) mejores bacterias
Eliminar la peor bacteria θw (j, G) en la población actual
End For
End
Figura 5. Algoritmo del MBFOA
De acuerdo al pseudocódigo en la Tabla 5, se describe el proceso que se
realiza durante su ejecución al resolver un problema de optimización.
Nuevas Heurı́sticas para Optimización Numérica
1.
2.
3.
4.
5.
6.
7.
8.
19
Se inicializan los parámetros del algoritmo (Tabla 12).
Se genera la población inicial aleatoria de bacterias θi (0, 0)∀i, i = 1, ..., Sb .
Se evalúa cada una de las bacterias f(θi (0, 0))∀i, i = 1, ...Sb .
En cada generación, todas las bacterias llevarán a cabo su ciclo quimiotáctico Nc veces. Se ejecutará la fase de reproducción y la de eliminacióndispersión.
En cada paso del ciclo quimiotáctico, las bacterias realizan su búsqueda, nadando y avanzando hacia una nueva posición o girando porque su
avance no fue favorable en la búsqueda de nutrientes (el valor de la función objetivo no mejoró en el nuevo punto al cual se habı́an dirigido). En
ambos casos se utilizan (9) y (10).
En la parte intermedia y al final del ciclo quimiotáctico, en vez de realizar
el nado y giro, se utiliza el operador de swarming (12), favoreciendo la
comunicación entre bacterias y, a su vez, la convergencia del algoritmo.
A continuación se realiza el proceso de reproducción, en el cual se duplican
a las mejores Sr (usualmente la mitad) bacterias y se elimina al resto (la
otra mitad).
Finalmente se realiza el proceso de eliminación-dispersión en el cual se
elimina únicamente a la peor bacteria de la población θw (j, G).
4.3.
Ejemplo de funcionamiento
Ahora, se presenta un ejemplo de funcionamiento del MBFOA aplicado al
mismo problema que el ABC, la función de la esfera detallada en (6) y (7).
Los valores de los parámetros de inicio del MBFOA se muestran en la Tabla
13. De acuerdo al pseudocódigo del MBFOA, primero se crea una población de
bacterias de manera aleatoria, el número de bacterias es definido por Sb (dicha
población está dentro del rango especificado), ver Tabla 14. Posteriormente se
calculan los tamaños de paso utilizando (11), n = 2, R = 2.1E-2, L1 = L2 =
−5 y U1 = U2 = 5, dando como resultado Cnew (1) = Cnew (2) = 0.1485.
Tabla 13. Parámetros del MBFOA empleados en la función de la esfera
Parámetro Valor
Sb
3
Nc
3
GMAX
4
Sr
2
R
2.1E-2
β
0.44
A continuación, se tiene que evaluar cada una de las bacterias en la función
objetivo, estos valores se muestran en la cuarta columna de la Tabla 14.
20
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
Tabla 14. Población inicial, el valor de la función para cada bacteria se encuentra
en la cuarta columna
Bacteria θ1i (0, 0) = x1 θ2i (0, 0) = x2
1
-1.728921
0.564320
2
1.595993
1.107934
3
1.082393
1.011439
f (θi (0, 0))
3.307624
3.774711
2.194583
El siguiente paso consiste en inicializar el contador del número de generaciones (G), el contador del número de bacterias Sb y el contador del número
de iteraciones del ciclo quimiotáctico Nc con el valor de 1. En el primer ciclo
quimiotáctico, para la bacteria 1 θ1 (j, G) se aplica el operador de nado-giro,
(9) y (10), recordando que a la mitad del ciclo quimiotáctico y al final del mismo se aplicará el swarming (12). Supóngase que los valores que se emplean
para la dirección aleatoria son (9):
φ1 (1) = −0.289841
φ2 (1) = −0.029217
Se calcula la nueva posición de la bacteria 1 usando el operador de nado
(9) de la siguiente manera:
Nc = 1
θ11 (1, 1) = −1.728921 + (0.1485 ∗ −0.289841) = −1.77190
θ21 (1, 1) = 0.564320 + (0.1485 ∗ −0.029217) = 0.55998
A continuación se evalúa la calidad de la nueva posición de la bacteria 1,
quedando de la siguiente manera:
f (θ1 (1, 1)) = (−1.77190)2 + (0.55998)2 = 3.45320
Ahora se determina si la bacteria continuará nadando en esa dirección
definida por φ(i) o si tendrá que girar, generando nuevos valores para φ(i).
Observando la función objetivo de la nueva posición de la bacteria 1 se nota
que no se mejora el valor actual de la misma (3.307624), por lo tanto, se
deberá generar una nueva dirección de búsqueda (un nuevo φ(i)) e intentar
mejorar (nadar) en esa dirección.
Dado que en este ejemplo el valor para el ciclo quimiotáctico es de Nc =3,
las siguientes dos iteraciones se consideran la mitad y la final del proceso.
Por ende, se aplicará el operador de swarming (12). Con base en la población
actual de bacterias detallada en la Tabla 14, la mejor es la bacteria 3 (pues
tiene el menor valor para la función objetivo). Utilizando entonces el operador
de swarming (12), se genera una nueva posición para la bacteria 1 como sigue:
Nuevas Heurı́sticas para Optimización Numérica
21
Nc = 2
θ11 (2, 1) = (−1.728921) + (0.44 ∗ (1.082393 − (−1.728921))) = −0.491942
θ21 (2, 1) = (0.564320) + (0.44 ∗ (1.011439 − (0.564320))) = 0.761052
A continuación se evalúa la nueva posición de la bacteria 1 después de
acercarse a la mejor bacteria en la población actual, quedando de la siguiente
manera:
f (θ1 (2, 1)) = (−0.491942)2 + (0.761052)2 = 0.821207
En esta ocasión la nueva posición es mejor que la previa, por lo que la
bacteria asumirá esta nueva posición y eliminará la anterior.
Para el tercer paso del ciclo quimiotáctico de la bacteria 1, se aplica de
nuevo el operador de swarming (12).
Nc = 3
θ11 (3, 1) = (−0.491942) + (0.44 ∗ (1.082393 − (−0.491942))) = 0.200765
θ21 (3, 1) = (0.761052) + (0.44 ∗ (1.011439 − (0.761052))) = 0.871222
Se evalua la nueva posición de la bacteria 1 :
f (θ1 (3, 1)) = (0.200765)2 + (0.871222)2 = 0.799334
Dada la nueva mejora de la posición con respecto a la previa (0.799334 <
0.821207). La bacteria tomará esta nueva posición:
θ11 (3, 1) = 0.200765
θ21 (3, 1) = 0.871222
f (θ1 (3, 1)) = 0.799334
Los cálculos para el ciclo quimiotáctico de la segunda bacteria se resumen
a continuación:
Nc = 1
θ12 (1, 1) = (1.595993) + (0.1485 ∗ 0.825212) = 1.718537
θ22 (1, 1) = (1.107934) + (0.1485 ∗ −0.564822) = 1.024058
f (θ2 (1, 1)) = (1.718537)2 + (1.024058)2 = 4.002064
Nc = 2
θ12 (2, 1) = (1.595993) + (0.44 ∗ (1.082393 − 1.595993)) = 1.370009
θ22 (2, 1) = (1.107934) + (0.44 ∗ (1.011439 − (1.107934))) = 1.065476
f (θ2 (2, 1)) = (1.370009)2 + (1.065476)2 = 3.012164
Nc = 3
θ12 (3, 1) = (1.370009) + (0.44 ∗ (1.082393 − 1.370009)) = 1.243458
θ22 (3, 1) = (1.065476) + (0.44 ∗ (1.011439 − 1.065476)) = 1.041700
f (θ2 (3, 1)) = (1.243458)2 + (1.041700)2 = 2.631326
22
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
Los cálculos para la tercera bacteria se presentan a continuación:
Nc = 1
θ13 (1, 1) = (1.082393) + (0.1485 ∗ −0.519574) = 1.005236
θ23 (1, 1) = (1.011439) + (0.1485 ∗ 0.854426) = 1.138321
f (θ3 (1, 1)) = (1.005236)2 + (1.138321)2 = 2.306275
Nc = 2
θ13 (2, 1) = (1.082393) + (0.44 ∗ (1.082393 − 1.082393)) = 1.082393
θ23 (2, 1) = (1.011439) + (0.44 ∗ (1.011439 − 1.011439)) = 1.011439
f (θ3 (2, 1)) = (1.082393)2 + (1.011439)2 = 2.194583
Nc = 3
θ13 (3, 1) = (1.082393) + (0.44 ∗ (1.082393 − 1.082393)) = 1.082393
θ23 (3, 1) = (1.011439) + (0.44 ∗ (1.011439 − 1.011439)) = 1.011439
f (θ3 (3, 1)) = (1.082393)2 + (1.011439)2 = 2.194583
Los valores para cada una de las bacterias después de haber pasado el
proceso quimiotáctico es presentado a continuación en la Tabla 15
Tabla 15. Resultado de las bacterias después del proceso quimiotáctico
Bacteria θ1i (0, 1) = x1 θ2i (0, 1) = x2
1
0.200765
0.871222
2
1.243458
1.041700
3
1.082393
1.011439
f (θi (0, 1))
0.799334
2.631326
2.194583
Aquı́ se pueden observar dos comportamientos interesantes: La mejor bacteria de la población inicial (la número 3) guió a las otras dos bacterias hacia
mejores zonas (mejores soluciones) ya que las direcciones aleatorias no reportaron mejoras para estas dos soluciones y, por otro lado, la mejor bacteria de
la población inicial no fue capaz de mejorar su posición y no se movió, dado
que esta mejor solución sólo puede mejorar mediante direcciones aleatorias de
búsqueda y no mediante el operador de swarming.
El siguiente proceso es la reproducción, el cual consiste en duplicar a las
mejores bacterias (la mitad de la población con mejor valor en la función objetivo). La Tabla 16 muestra el resultado de la reproducción, donde la bacteria
2 fue eliminada y ahora una copia de la nueva mejor bacteria (posición 1),
quien fue la única en reproducirse, tomó su lugar.
El siguiente proceso es la eliminación y dispersión, en el cual se elimina a
la peor bacteria de la población. La Tabla 17 refleja el resultado del proceso de
eliminación, donde la bacteria en la posición 3 (curiosamente la mejor bacteria
Nuevas Heurı́sticas para Optimización Numérica
23
Tabla 16. Resultados del proceso de reproducción
Bacteria θ1i (0, 1) = x1 θ2i (0, 1) = x2
1
0.200765
0.871222
2
0.200765
0.871222
3
1.082393
1.011439
f (θi (0, 1))
0.799334
0.799334
2.194583
de la población anterior) es eliminada y una nueva bacteria localizada en
una posición aleatoria toma su lugar. Ésto favorece la exploración de nuevas
soluciones y previene la convergencia en óptimos locales.
Tabla 17. Resultados del proceso de eliminación-dispersión
Bacteria θ1i (0, 1) = x1 θ2i (0, 1) = x2
1
0.200765
0.871222
2
0.200765
0.871222
3
1.546781
0.345621
f (θi (0, 1))
0.799334
0.799334
2.511985
La primera generación del MBFOA termina después de la eliminacióndispersión. Los resultados finales después de 4 generaciones se reportan en la
Tabla 18.
Tabla 18. Población final y el valor de aptitud de cada bacteria.
Bacteria θ1i (3, 4) = x1 θ2i (3, 4) = x2
1
-0.042711
-0.040718
2
-0.042711
-0.040718
3
0.496293
0.631932
f (θi (3, 4))
0.003482
0.003482
0.645644
La solución a reportar será la bacteria 1 y 2 que tienen los mismo valores,
con x1 = −0.042711, x2 = −0.040718 y f (x) = 0.003482.
5.
Conclusiones
En este capı́tulo se han presentado dos algoritmos heurı́sticos recientes de
inteligencia colectiva, basados en comportamientos colaborativos encontrados
en la naturaleza, ambos para resolver problemas de optimización numérica.
Después de una introducción a la optimización en general, de centrarse en la
24
Mezura-Montes, Cetina-Domı́nguez y Hernández-Ocaña
optimización en espacios continuos y de motivar el uso de heurı́sticas, se han
presentado los elementos de las heurı́sticas bio-inspiradas. Dos algoritmos, la
colonia artificial de abejas (ABC) y la versión mejorada de la optimización
mediante el forrajeo de bacterias (MBFOA) fueron presentados y dos ejemplos numéricos en una función de prueba muy sencilla se incluyeron para
apoyar al lector en el uso de estos algoritmos en algún problema en particular. Dado lo reciente en la aparición de estas dos heurı́sticas, se visualiza en
el futuro cercano una gran cantidad de investigación al respecto, con la intención de generar versiones aún más robustas al resolver, sobre todo, problemas
del mundo real. Finalmente, se destaca la sencillez de implementación y uso
de ambos algoritmos bio-inspirados, caracterı́sticas que pueden ser atractivas
para especialistas de otras áreas que requieran utilizarlos.
Agradeciemientos
El primer autor agradece al Consejo Nacional de Ciencia y Tecnologı́a
(CONACyT) por el apoyo mediante el proyecto 79809-Y titulado: “Nuevos
Modelos Bio-Inspirados en Optimización con Restricciones”. El segundo autor
agradece el apoyo de CONACyT mediante una beca para cursar estudios de
Maestrı́a en el Laboratorio Nacional de Informática Avanzada (LANIA A.C.).
El tercer autor agradece a CONACyT por el apoyo otorgado mediante el
proyecto 102299 titulado “Optimización con Restricciones Usando Modelos
Basados en Bacterias”.
Referencias
1. H.A. Taha. Investigación de Operaciones. Alfa Omega, second edition, 1991.
2. K. Deb. Optimization for Engineering Design Algorithms and Examples. Prentice Hall of India, fourth edition, 2000.
3. Z. Michalewicz and D.B. Fogel. How to Solve It: Modern Heuristics. SpringerVerlag, second edition, 2004.
4. E. Mezura-Montes, C.A. Coello Coello, and R. Landa-Becerra. Engineering
Optimization Using a Simple Evolutionary Algorithm. In Proceedings of the
Fiftheenth International Conference on Tools with Artificial Intelligence (ICTAI’2003), pages 149–156, Los Alamitos, CA, November 2003. Sacramento,
California, IEEE Computer Society.
5. A. Angantyr and J.O. Aidanpää. A Pareto-Based Genetic Algorithm Search
Approach to Handle Damped Natural Frequency Constraints in Turbo Generator Rotor System Design. Journal of Engineering for Gas Turbines and Power,
126(3):619–625, July 2004.
6. J. Alvarez-Gallegos, C.A. Cruz-Villar, and E.A. Portilla-Flores. Evolutionary
Dynamic Optimization of a Continuously Variable Transmission for Mechanical Efficiency Maximization. In Alexander Gelbukh, Álvaro de Albornoz, and
Hugo Terashima-Marı́n, editors, MICAI 2005: Advances in Artificial Intelligence, pages 1093–1102, Monterrey, México, November 2005. Springer. Lecture
Notes in Artificial Intelligence Vol. 3789,.
Nuevas Heurı́sticas para Optimización Numérica
25
7. S. Kirkpatrick, C. D. Gelatt Jr., and M. P. Vecchi. Optimization by Simulated
Annealing. Science, 220(4598):671–680, May 1983.
8. F.W. Glover and M. Laguna. Tabu Search. Kluwer Academic Publishers, London, UK, 1997.
9. A.P. Engelbrecht. Fundamentals of Computational Swarm Ingelligence. John
Wiley & Sons, Sussex, England, 2005.
10. A. E. Eiben and J. E. Smith. Introduction to Evolutionary Computing. Springer,
first edition, 2003.
11. D.B. Fogel. An introduction to simulated evolutionary optimization. Neural
Networks, IEEE Transactions on, 5:3–14, 1994.
12. A. Baykasoglu, L. Ozbakir, and P. Tapkan. Artificial bee colony algorithm
and its application to generalized assignment problem. In Felix T.S. Chan and
Manoj Kumar Tiwari, editors, Swarm Intelligence: Focus on Ant and Particle
Swarm Optimization, pages 113–144. Itech Education and Pub., Vienna, Austria, 2007. ISBN 978-3-902613-09-7.
13. D. Karaboga and B. Basturk. A powerful and efficient algorithm for numerical
function optimization: Artificial bee colony (ABC) algorithm. Journal of Global
Optimization, 39(3):459–471, 2007.
14. K.M. Passino. Biomimicry of bacterial foraging for distributed optimization
andcontrol. IEEE Control Systems Magazine, 22(3):52–67, 2002.
15. E. Mezura-Montes and B. Hernández-Ocaña. Bacterial foraging for engineering
design problems: Preliminary results. In Arturo Hernández-Aguirre et al., editor,
Fourth Mexican Conference on Evolutionary Computation (COMCEV’2008),
pages 33–38, Guanajuato, Mexico, October 2008. CIMAT.
Descargar