Algoritmos Metaheurísticos la lista definitiva.

En su intento por dotar de inteligencia a los ordenares, múltiples cientificos han acudido a analogias inspiradas en la naturaleza para desarrollar algoritmos eficientes que resuelvan problemas difíciles “inteligentemente”.

Los algoritmos metaheurísticos son diseñados con el objetivo de realizar búsquedas aleatorias inteligentes que encuentren la configuración de los parámetros óptimos de un sistema o problema. Usualmente se aplican en problemas complejos o imposibles de resolver con métodos deterministas, es decir de forma matemática.

Aunque no hay garantía alguna que estos algoritmos devuelvan el valor optimo global, han comprobado ser útiles para otorgar “buenas” soluciones en tiempos razonables, aun para problemas complejos.

En la actualidad existe una gran variedad de estos algoritmos metaheurísticos y siguen agregándose más y más por cada año. En los últimos 10 años, al menos 6 nuevas estrategias han sido publicadas cada año.

Realizando un survey de algunos de estos algoritmos nos hicimos a la tarea de conseguir una lista de todos los algoritmos metaheurísticos publicados hasta el momento. Comenzando desde 1964 con el algoritmo de estrategias evolutivas, hasta el 2016 con algoritmos como Comportamiento del Grillo y el algoritmos inspirado en el Futball Americano, disponemos de esta lista para todos ustedes:

https://thesciencematrix.com/Apps/metaheuristics/

La lista puede ser fácilmente filtrada por nombre del algoritmo, autor y año de publicación, y para cada uno se otorgo el resumen incluido en la publicación y el enlace del articulo publicado.

 

Algoritmos Metaheurísticos la lista definitiva.

Detección y descripción de características – Lo que vemos V.S. lo que entendemos

Para una amplia variedad de aplicaciones computacionales encontrar las correspondencias visuales entre un par de imágenes dado es una de las temas de investigación actuales más importantes dentro del área de visión computacional. Tareas como la representación de imágenes, el reconocimiento de patrones y objetos, la reconstrucción de escenas 3D, o la navegación visual  no serían posibles de llevar a cabo sin la presencia de características estables y representativas en la imagen.

La descomposición de una imagen digital en regiones de interés o “características locales” es una técnica ampliamente utilizada en visión artificial que permite, tanto explotar las propiedades de apariencia local, como reducir la complejidad de los problemas de visión computacional.

La tarea de encontrar correspondencias visuales entre imágenes de una misma escena se divide en dos partes importantes: En primer lugar está la detección de los puntos clave (características locales) más sobresalientes en la imagen y, en segundo lugar, la descripción de dichos puntos de interés.


1

Figura 1. Características Locales detectadas en una imagen digital


Los detectores de características ideales encuentran regiones salientes en la imagen tales que sean posibles de detectar aun cuando estos estén sujetos a cambios de punto de vista; en forma más general, estos deben ser robustos a todas las transformaciones posibles de la imagen. Una vez que se encuentra un conjunto distintivo de puntos de interés con características contrastantes, es posible construir un descriptor de características para cada uno de dichos elementos. Un descriptor de características ideal debe ser capaz de capturar la información más importante y distintiva de una región saliente, de manera que si la misma estructura es detectada posteriormente, esta pueda ser reconocida. En este contexto, ciertas características de imagen como la intensidad de color, las formas, las texturas, o bien la respuesta de ciertos tipos de filtros espaciales pueden ser utilizados para construir descriptores.

Además de cumplir con estas características, la velocidad con que se detecta y describe a cada uno de estos puntos significativos de la imagen debe también ser optimizada para ajustarse a las restricciones de tiempo demandadas por ciertas aplicaciones particulares. Por esta razón la dificultad inherente de extraer características útiles de una imagen yace en balancear dos metas comunes de competitividad: La  calidad en la descripción de las características locales y los requerimientos de costo computacional.


2

Figura 2. Correspondencias entre los puntos característicos de un par de imágenes de una misma escena.


La década pasada fue testigo de avances clave en lo que se refiere a la extracción de puntos característicos en imágenes digitales. En el 2004 David Lowe propuso el algoritmo SIFT (Scale Invariant Feature Transform), un detector y descriptor de características locales que es invariante tanto a la rotación como al escalamiento.  Dicho algoritmo emplea una versión adaptado a la escala del método de Diferencias Gaussianas (DoG) en conjunto con el descriptor de características conocido como Histograma de Gradientes Orientados (HOG).  A pesar de que el enfoque empleado por el algoritmo SIFT implica un considerable costo computacional, este es ampliamente aceptado como uno de las opciones de más alta calidad actualmente disponibles, prometiendo distintividad y robustez a una variedad de transformaciones de imagen comunes.

Recientemente, la meta en la investigación de algoritmos de detección y descripción de características locales ha consistido en buscar un desempeño similar a SIFT, mientras que a su vez se adquiera una complejidad computacional mucho menor. El algoritmo SURF (Speeded-Up Robust Features) desarrollado y publicado por Herbert Bay en el 2006 es quizá el ejemplo más importante de ello. Dicho algoritmo de detección y descripción de características locales está basado en principios similares al algoritmo SIFT, diferenciándose principalmente en la explotación de las propiedades de la imagen integral para llevar a cabo aproximaciones eficientes de las operaciones de filtrado implicadas en la detección de los puntos clave, lo cual se traduce en una velocidad de computo notoriamente superior en comparación al algoritmo SIFT.

 

CARACTERÍSTICAS LOCALES

Una característica local puede ser definida como un patrón en una imagen digital que difiere de su vecindad inmediata.  Dichas características están usualmente asociadas con algún cambio en alguna o varias de las propiedades de la imagen, como pueden ser los cambios en el nivel de intensidad, el color o la textura.

Las características locales pueden ser puntos específicos en la imagen, aunque otras características de la imagen como los bordes o pequeñas masas (blobs) pueden ser también consideradas como tal.

Típicamente, algún tipo de información es extraída de una región centrada sobre la posición de la característica local y de esta forma dicha información puede convertirse en un descriptor de dicha característica.

El principal objetivo de la detección y descripción de características locales en una imagen es proveer una abstracción general y compacta de la información contenida en dicha imagen, de manera que esta pueda ser utilizada con mayor facilidad y eficiencia en diversas aplicaciones de visión computacional.


3

Figura 3. La detección y descripción de características locales en una imagen digital permiten obtener una representación general y compacta de la información contenida en dicha imagen.


En términos generales, una característica local ideal debe de tener las siguientes propiedades:

  • Repetibilidad: Dadas dos imágenes de un mismo objeto o escena en particular, tomadas en condiciones diferentes de punto de vista, un alto porcentaje de las características detectadas en dicho objeto o escena deben poder ser encontrados en ambas imágenes.
  • Distintividad: Los patrones de intensidad asociados con la característica detectada deben de mostrar suficiente variación, de manera que dicha característica local pueda ser distinguida apropiadamente.
  • Localidad: La característica debe ser local, con el fin de eliminar la probabilidad de oclusión y para permitir la aproximación a través de modelos simples de las deformaciones geométricas y fotométricas entre dos imágenes tomadas desde puntos de vista diferentes.
  • Cantidad: El número de características locales detectadas debe ser lo suficientemente grande, tal que un número razonable de estas sean detectadas aun en objetos muy pequeños. Además, la densidad de características detectadas debe reflejar el contenido de información de una imagen y proveer una representación compacta de la misma.
  • Precisión: Las características detectadas deben estar localizadas en forma precisa, tanto en ubicación en la imagen, así como con respecto de la escala y deformación geométrica del objeto.
  • Eficiencia: Preferentemente, el tiempo de detección de características en una nueva imagen debe ser lo suficientemente razonable para aplicaciones donde el tiempo es crítico.

 

DESCRIPTORES DE CARACTERÍSTICAS

Los detectores de características locales permiten localizar y visualizar propiedades importantes en las imágenes digitales, sin embargo la simple detección de estos puntos o regiones características usualmente no provee información suficiente que pueda ser utilizada en aplicaciones de visión artificial.

Los descriptores de características  juegan un papel importante dentro de una amplia variedad de aplicaciones de visión computacional ya que estos permiten extraer información significativa correspondiente a una amplia variedad de propiedades en la imagen.

En forma general, un descriptor de características (o simplemente descriptor) se puede definir como una abstracción de las características visuales contenidas en una imagen digital. Dichos descriptores usualmente describen características elementales como son la forma, el color, la textura, el movimiento, entre otras.

Como resultado de la descripción de características, típicamente se obtiene lo que se conoce como vector de características, el cual contiene una descripción codificada de cada uno de los puntos característicos encontrados en la imagen.

Dependiendo del contenido y la cantidad de información característica que engloban, los descriptores de características  se pueden clasificar como:

  1. Descriptores Globales: Este tipo de descriptores proporcionan una descripción general de la información de color o textura, contenida en una imagen. Un ejemplo típico de este tipo de descriptores son los histogramas de intensidad, los cuales ofrecen una descripción clara de la distribución estadística en los niveles de intensidad de los píxeles de la imagen.
  2. Descriptores Locales: Como su nombre lo sugiere, los descriptores locales proporcionan una descripción informativa de ciertos elementos u objetos específicos en la imagen digital.  Este tipo de descriptores se utilizan para sustraer información descriptiva de los puntos o regiones de interés encontradas por un detector de características locales.

 

Los descriptores de características pueden ademas clasificarse de acuerdo al tipo de información empleada pasa su construcción, como por ejemplo:

  1. Descriptores de forma: Este tipo de descriptores proporcionan información referente a la geometría de los elementos u objetos en una imagen.
  2. Descriptores de color: Los descriptores de color proveen información sobre la distribución de color en los elementos y objetos que conforman la imagen.
  3. Descriptores de textura: Estos descriptores ofrecen una descripción distintiva de propiedades estructurales de la imagen, como son el contraste, la direccionalidad, o la rugosidad, entre otras.
  4. Descriptores de movimiento: Los descriptores de movimiento tienen la función de extraer la información acerca de la relación espacio-temporal de los objetos en una imagen. El movimiento se puede relacionar con el cambio de posición de los objetos en una escena, o bien con el desplazamiento del dispositivo utilizado para la captura de imágenes.

 

Un algoritmo de descripción de características abstrae la información contenida alrededor de un punto de interés dado y la representa a través de un vector de características.

Encontrar las correspondencias entre las características locales en un par de imágenes diferentes de una misma escena u objeto es la tarea más importante derivada de la descripción de dichas características locales, y es lo que hace posible la implementación de una amplia variedad de aplicaciones de visión computacional.


4

Figura 4. Aplicación de la detección y descripción de características para la detección de objetos en una imagen.


En entradas posteriores veremos con mas detalle algunas de las técnicas mas populares para detectar y describir características en una imagen. ¡Manténganse sintonizados!

Detección y descripción de características – Lo que vemos V.S. lo que entendemos

Una clase para gobernarlos a todos.

AISearch

AISearch es una implementación propia de los algoritmos de búsqueda populares en textos de investigación, con objeto de tener un toolbox fácil de implementar, así como poder cambiar la resolución del problema con distintos algoritmos de forma sencilla. Buscando tener un punto de partida para analizarlos, compararlos o diseñar nuevas estrategias, enfocándose únicamente en los operadores del algoritmo.

Los algoritmos de búsqueda metaheurísticos que utilizan una población de soluciones, buscan mejorar esta población de soluciones mediante un proceso iterativo que hace uso de la información acumulada durante todo el proceso, o bien la disponible en cada iteración. El proceso de estos puede ser abstraído en conjunto con el siguiente diagrama de flujo.

Untitled Diagram (2)

Estos algoritmos comparten múltiples procesos en común, y aunque estos algoritmos pueden ser implementados de múltiples formas, también pueden ser organizados a manera de clases, para trabajar con ellos en un paradigma de programación orientada a objetos. De esta forma pueden compartir una gran parte de las funciones que los componen, y ser mejor comprendidos y analizados únicamente en el núcleo de los operadores que los definen.

Uno no simplemente implementa todos los algoritmos

Hacer uso de la orientación a objetos, trae consigo múltiples beneficios, entre ellos un mayor reúso del código, encapsulación, y un mejor mantenimiento y optimización del código. Aunque esta entrada no busca desarrollar el tema de programación orientada a objetos, una introducción sencilla puede encontrarse en wikipedia.

Con este objetivo en mente, el primer paso entonces es describir la clase principal, que contiene todas las propiedades y métodos que pueden ser compartidos por cada uno de los diferentes algoritmos. Por ejemplo, todos ellos tienen un arreglo donde almacenan la información de la soluciones que se encuentran actualmente en la población. Así mismo un vector con la información de asociada de desempeño por cada solución. Todos ellos comienzan con una población inicial aleatoria, por lo que tener una sola función para realizar este proceso permite que puedan ser comparados equitativamente, o bien que si esta función es mejorada, o se arregla algún error dentro de ella, haciendo cambio de esta, todos los algoritmos se beneficiaran de dicho cambio.

Las propiedades consideradas para esta clase principal son:

 properties
        sizePopulation = 30;
        noDimensions = 1;
        population = [];            %size = (sizePop, NoDim)
        fitness = [];               %size = (sizePop, 1)
        bestSolution = [];
        bestFitness = inf;
        fitnessFunction;
        numberOfFunctionCalls = 0;
        maxNoIterations = 100;
        actualIteration = 0;
 end

Los métodos que estos algoritmos comparten tienen que ver con la población, su fitness, ordenamiento, entre otras utilidades que pueden ser parte o no de los algoritmos, como la visualización gráfica de la información. A continuación citaremos cada uno de ellos.

  • Población Inicial: Usualmente estos algoritmos comienzan con un conocimiento nulo del problema que están buscando resolver de forma optima. Por lo que sus primeros intentos comienzan con soluciones totalmente aleatorias.
function initialPopulation(obj, sizePopulation, noDimensions)
   obj.population = rand(sizePopulation, noDimensions);
end
  • Evaluación de la Población: Cada solución en la población debe ser evaluada para conocer su valor de desempeño, este valor indica la superioridad de las soluciones sobre las demás. Usualmente este valor busca ser maximizado o bien minimizado.
function fit = evalPopulation(obj, population)
   fit = zeros(size(population,1),1);
   for i=1:size(population,1)
     fit(i) = obj.fitnessFunction(population(i,:));
   end
end
  • Ordenamiento de la población: Algunas veces es conveniente tener la población ordenada de acuerdo a su valor de desempeño, de forma que las mejores soluciones se encuentren primero. Aunque este proceso es conocido por ser costoso computacionalmente, por lo que su uso debe ser limitado.
function sortPopulation(obj)
   temp = sortrows([obj.fitness, obj.population], 1);
   obj.fitness = temp(:,1);
   obj.population = temp(:,2:end);
end
  • Revisar los limites de búsqueda: En ocasiones los algoritmos utilizan operadores que pueden sacar de los limites permisibles a las variables que estás siendo controladas en las soluciones. Debido a que la solución que se busca esta restringida en un área bien delimitada, soluciones fuera de esta área no deben ser aceptadas. Por lo que esta función busca entre la población soluciones que tengan variables fuera del rango permisible y las reúbica en el limite permitido.
function solutions = checkBounds(obj, solutions)
   solutions(solutions>1)=1;
   solutions(solutions<0)=0;
end

Para esta implementación consideramos que todos los problemas trabajan variables en el rango de 0 a 1, y estas son escaladas para cada problema en el rango de interés de los mismos.

  • Actualiza la mejor solución: Es común que los algoritmos utilicen la mejor solución encontrada en todo el proceso evolutivo para guiar el movimiento o evolución de la población, para ello este valor debe ser actualizado en cada iteración.
function updateBest(obj)
   [bestFitTemp, bestIndex] = min(obj.fitness);
   if bestFitTemp < obj.bestFitness
      obj.bestSolution = obj.population(bestIndex,:);
      obj.bestFitness = bestFitTemp;
   end
end
  • Ejecución del algoritmo: Este método se encarga de iniciar el proceso de búsqueda, y mantener la evolución del proceso por el número de iteraciones definidas en la clase. Es importante el orden en el que los otros métodos son llamados, así como el método llamado operadores (operators) que es la implementación del algoritmo en sí.
function start(obj)
   obj.initialPopulation();
   obj.evalPopulation();
   for i=1:obj.maxNoIterations
      obj.actualIteration = i;
      obj.operators();
      obj.updateBest();
   end
end

El metodo operators se define como abstracto, por lo que cada subclase (cada algoritmo) debe definirlo. Este método se encarga de modificar las soluciones actuales con la información recibida, y se espera que devuelva la población con las nuevas soluciones junto con el valor de desempeño de las mismas. Esto lo puede hacer internamente o bien utilizando la función definida en la clase base.

  • Otras: Existen otras funciones que son compartidas entre los algoritmos relacionadas en la forma en la que se presenta la información del proceso de evolución, o bien los resultados obtenidos. Estas funciones pueden encontrarse en el repositorio de GitHub.

Cómo un ejemplo de la implementación del algoritmo, dejó el código del método operators del algoritmo basado en enjambre de particulas (PSO), que será mejor explicado en otra ocación:

function operators(obj)
   % atraction to the best personal solution
   pbAtraction = rand(obj.sizePopulation,obj.noDimensions) .* ...
        (obj.bestPersonal(:,2:end)-obj.population);

   % atraction to the best global solution
   bestAtraction = rand(obj.sizePopulation,obj.noDimensions) .* ...
        (repmat(obj.bestSolution, obj.sizePopulation, 1) - obj.population);

   % update velocity trayectories.
   obj.velocity = obj.velocityParam * obj.velocity + ...
        obj.bestPersonalParam * pbAtraction + ...
        obj.bestParam * bestAtraction;

   % update solutions
   obj.population = obj.population + obj.velocity;
   obj.checkBounds();

   % eval fitness
   obj.evalPopulation();
end

Cada función contiene código extra que revisa las condiciones de las variables, y permite un uso mas dinámico de estos métodos. Pero el concepto clave fue expuesto en este documento. Si tienes alguna duda o comentario sobre algún código en esta implementación déjanos saber en la sección de abajo.

Una clase para gobernarlos a todos.

La genética de la optimización

Algoritmo Genético.

El algoritmo genético imita el comportamiento evolutivo descrito por Darwin, donde el individuo mejor adaptado prevalece. En ambiente limitado de recursos, lo individuos compiten entre si, y aquellos mas fuertes obtienen ventaja sobre los demás, en posibilidades de permanecer con vida, así como de aparearse y generar descendencia. Con forme pasa el tiempo y las generaciones los individuos son cada vez mas adaptados al ambiente y mantienen los “buenos” genes. Fue desarrollado en los años 1970, de la mano de John Henry Holland.

El algoritmo genético considera que cada solución del problema representa un individuo, el cual tiene un cierto nivel de adaptación a su entorno, la adaptación es un valor numérico dado por la función de desempeño (fitness). Estos individuos que forman parte de una población compiten entre si, se reproducen, e inclusive mutan, pero dado las condiciones limitadas de recursos solo un numero fijo de los mismos sobreviven en cada generación.

De la misma forma en la que las especies evolucionan en cada generación, el algoritmo evolutivo busca que el conjunto de soluciones inicial evolucione en cada iteración, hasta que los individuos sobrevivientes sean representaciones de soluciones con altos desempeños.

Este comportamiento evolutivo es imitado mediante un conjunto de operadores que trabajan sobre la población actual. Suponiendo una población inicial poco adaptada al ambiente, usualmente soluciones completamente aleatorias, y el conocimiento de su adaptación (fitness). En cada iteración del algoritmo primeramente se ejecuta un mecanismo de Selección de Padres. La descendencia es generada mediante un Operador de Cruzamiento, en el cual la información de los genes de los padres es mezclada, cada uno de los nuevos descendientes tiene una pequeña probabilidad de experimentar un proceso de Mutación, donde su información genética puede ser alterada de forma aleatoria. Finalmente la nueva población y la anterior compiten para mantenerse con vida para la siguiente generación, un operador de Remplazo.

Primero lo primero, Codificación.

Antes de poder implementar los operadores genéticos es importante definir la codificación de los individuos. Las soluciones en este algoritmo deben estar representadas por una cadena de caracteres, usualmente binaria para números, o soluciones que buscan seleccionar entre un numero de objetos la mejor combinación.

Por ejemplo:
Si una de las variables del problema tiene que seleccionar entre 127 objetos, entonces la codificación de dicho gen seria la cadena binaria del valor propuesto por la solución.

127 = 1111111
83 = 1010011
1 = 0000001

En el caso que alguna variable del problema tiene que elegir un grupo de objetos que serán incluidos y el resto no, entonces el gen adquiere un valor de 1 en los indices de los objetos que considera para dicha solución y 0 en los demás.

Obj1 Obj2 Obj3 ... ObjN
   1    0    1 ...    1
   0    0    1 ...    0
   1    1    0 ...    1

Aunque la representación binaria es muy utilizada en este algoritmo no es estrictamente necesaria ya que si una solución busca escoger para cada gen entre un numero N de opciones, la cadena podría ser de la forma:

Suponiendo N como 5.
Gen1 Gen2 Gen3 Gen4
   2    5    3    1
   4    2    1    1
   5    5    2    1

O alguna mezcla de estas.

El siguiente ejemplo muestra la codificación utilizada en para resolver el problema de optimización discreta conocido como problema de la mochila. En este problema se busca escoger entre todos los objetos el conjunto de ellos que represente el mayor valor económico, teniendo como limitante un peso máximo posible de escoger. Prueba entre las diferentes combinaciones, y observa la codificación de la solución para cada una.

Este problema es desarrollado mas extensamente en esta entrada

Operaciones Evolutivas.

Estos cuatro operadores manipulan la información obtenida de una población aleatoria de forma que iterativa, simulando un comportamiento evolutivo, mejorando las soluciones, mediante la explotación de la información conocida por los individuos que constituyen a la población actual.

Selección de Padres.

En la selección se considera un balance entre aleatoriedad y elitismo, para dar preferencia a individuos con mejor adaptación, pero también permitir la diversificación evitando convergencia prematura.
La selección de padres se lleva a cabo mediante un proceso de torneo, donde dos individuos distintos de la población son seleccionados aleatoriamente, y el que tenga mejor desempeño es seleccionado. Este proceso se realiza tantas veces como numero de individuos hay en la población.

Desde 1 hasta el numero de individuos en la población:
  P1 = selecciona un individuo aleatoriamente
  P2 = selecciona un individuo aleatoriamente
  seleccionados = selecciona entre P1 y P2 al que tiene mejor fitness.

Cruzamiento.

Con los pares de padres seleccionados, entonces un torneo probabilistico evalúa si estos producirán descendencia entre ellos. La descendencia es generada mediante un Operador de Cruzamiento, en el cual la información de los genes de los padres es mezclada al rededor de un punto de cruce, aunque existen otras formas de realizar esta operación.

Este operador es el que mezcla la información de los individuos seleccionados. Cada par de individuos generan dos descendientes, por lo que al final una nueva población de mismo tamaño que la anterior es generada.

Para cada par de individuos seleccionados: %(NoIndividuos / 2)
  Si (numero aleatorio > Probabilidad de cruce):
    indiceCruce = NumeroAleatorio entre 1 y el numero de bits de la solución.
    Hijo1 = [Padre1[desde 1 hasta indice de cruce] , Padre2[desde indice de cruce al final]
    Hijo2 = [Padre2[desde 1 hasta indice de cruce] , Padre1[desde indice de cruce al final]
  sino
    Hijo1 = Padre1
    Hijo2 = Padre2
  Descendencia.agregar([Hijo1, Hijo2])

La información de la descendencia es resultado de una mezcla de la información de los padres en un punto de cruce, el cual es seleccionado de manera aleatoria. Por ejemplo si tenemos los siguientes padres: $P1 = 01010101$ y $P2 = 11111111$, y el punto de cruce resulto ser 4 entonces:

Punto de cruce aleatorio PC, suponemos que sea 4
P1_1 = P1(1:4) %que sería 0101
P1_2 = P1(5:8) %que sería 0101
P2_1 = P2(1:4) %que sería 1111
P2_2 = P2(5:8) %que sería 1111

Ch1 = [P1_1 P2_2] %01011111
Ch2 = [P2_1 P1_2] %11110101

Mutación.

Cada uno de los nuevos descendientes tiene una pequeña probabilidad de experimentar un proceso de Mutación, donde su información genética puede ser alterada de forma aleatoria. Esta posibilidad es evaluada en cada bit de la solución de la siguiente forma:

Para cada nuevo individuo generado:
  Para cada bit i:
    Si (numero aleatorio > Probabilidad de mutación):
      individuo[i] = inverso(individuo[i]) %si era 1 -> 0 o el inverso.

Remplazo.

Finalmente la nueva población y la anterior compiten para mantenerse con vida para la siguiente generación, un operador de Remplazo selecciona los individuos tomando en cuenta su adaptación al medio.

Añadir la nueva población con la anterior
Ordenar la población de acuerdo al desempeño
Población = Seleccionar los NumeroIndividuos mejores de la población.

De esta forma la siguiente iteración tendrá de inicio los mejores individuos encontrados hasta el momento. Esta estrategia es elitista y suele tener problemas de convergencia prematura. Existen múltiples variantes para estos operadores. En otra entrada hablaremos sobre algunas de estas variantes y sus características.

Clasificación.

Este algoritmo pertenece a la clasificación de:

  • algoritmos evolutivos,
  • metaheurísticos,
  • optimización global,
  • algoritmo poblaciónal,
  • para un solo objetivo, aunque tiene sus variantes multiobjetivo
  • optimización de parámetros reales, o en problemas de combinatoria, incluso mixtos.

Este algoritmo es uno de los pioneros en el área, y abrió el paso a muchas versiones que utilizan está misma inspiración de la evolución.

Pseudocodigo

P = PoblaciónInicial(NoPoblación)
F = FunciónDesempeño(P)
mientras (i < NoIteraciones):
  Padres = SeleccionaPadres(P)
  Hijos = Cruzamiento(Padres, ProbCruz)
  Hijos = Mutación(Hijos)
  FH = FunciónDesempeño(Hijos)
  P = Remplazo(P, Hijos)

Implementaciones.

Este algoritmo esta implementado en javascript con el modulo AISearch, desarrollado por nosotros, y disponible en el área de pruebas.

La genética de la optimización

Algoritmos que van mas allá.

Algoritmos metaheurísticos.

En muchas ocasiones en la investigación científica se busca encontrar formas eficientes de realizar procesos. Usualmente estos problemas terminan siendo representados mediante un proceso de optimización, donde el objetivo es encontrar una configuración de parámetros (variables) que mejor resuelvan el problema dada una métrica que los clasifica.

Cuando estos problemas son muy complejos (NP Hard) no pueden encontrarse soluciones de forma determinista, o bien es imposible enumerar todas las configuraciones posibles en un tiempo aceptable. Este tipo de problemas se conocen también como intratables o altamente intratables. Usualmente en este tipo de problemas suelen utilizarse métodos heurísticos, que son diseñados especificamente para el problema a tratar.

Las heuristicas son métodos desarrollados para ofrecer soluciones de forma mas rápida o para encontrar una solución aproximada donde los métodos clásicos son lentos o fallan en encontrar una solución.
https://en.wikipedia.org/wiki/Heuristic_(computer_science)

Algunos problemas comunes en estos métodos es que suelen atorarse en óptimos locales o bien si la naturaleza del problema cambia un poco puede que estos no funcionen de forma correcta ya que están diseñados especificamente para el problema en cuestión.

Con estas restricciones en mente surgen un nuevo conjunto de métodos denominados metaheurísticos. Estos algoritmos están diseñados para dar una respuesta rápida, esquivando óptimos locales, y para trabajar independientemente del problema, lo que cual les brinda robustes al enfrentar cambios en la naturaleza del mismo.

La palabra “meta” quiere decir que va mas allá.

La forma en la que están diseñados estos algoritmos es muy variada, pueden ser resultado de imitar un fenómeno natural (bioinspirados) o basarse en una trayectoria, tener una única solución o un conjunto de ellas (poblacionales), buscar el optimo global o también un conjunto de óptimos locales (unimodal – multimodal), tener un único objetivo o múltiples, entre otras clasificaciones.

Blum y Roli remarcan algunas características de los algoritmos metaheurísticos:
+ Son estrategias que “guían” el proceso de búsqueda.
+ Buscan eficientizar la exploración por el espacio de búsqueda.
+ Se componen de técnicas que van desde búsqueda local hasta complejos procesos de aprendizaje.
+ Son métodos aproximados y usualmente no determinísticos.
+ Incorporan mecanismos que evitan quedar atrapados en óptimos locales prematuramente.
+ No son diseñados para un problema en especifico.
+ Los mas avanzados utilizan la experiencia obtenida en la búsqueda (mediante algún tipo de memoria) que los dirige.

Clever Algoritms

Dada su naturaleza de diseño independiente del problema, son aplicados en a los problemas de la forma “black box”, es decir, pueden ser implementados sin tener que tener ningún (o muy poco) conocimiento del problema que buscan resolver. Esto permite que sean muy flexibles en su uso sin tener que realizar muchas modificaciones. Generalmente las técnicas que requieren menos información sobre el problema que resuelven son mas flexibles, aunque menos eficientes. El mejor ejemplo de este comportamiento sería la búsqueda aleatoria, que simplemente genera soluciones aleatorias.

Este tipo de algoritmos también son denominados como Algoritmos de Optimización Estocasticos. Esto debido a que utilizan aleatoriedad en sus operaciones, lo cual los convierte en no deterministas. Esto no significa que sean algoritmos aleatorios, si no que explotan la aleatoriedad al explorar de manera probabilística, enfocandose en áreas de interés.

J. Brownlee utiliza la siguiente clasificación:

  • Algoritmos Estocásticos.
  • Algoritmos Evolutivos.
  • Algoritmos Físicos.
  • Algoritmos Probabilisticos.
  • Algoritmos Basados en Partículas.
  • Algoritmos Inmunes.
  • Algoritmos Neuronales.

La mayoría de estos algoritmos presentan un comportamiento de aprendizaje inductivo, es decir que van aprendiendo de la experiencia, comienzan de manera aleatoria y mediante generación, selección y prueba van mejorando las soluciones a través de la iteraciones.

En este espacio publicaremos un análisis de algunos de estos algoritmos, con su explicación, clasificación, bondades y posibles problemas, y el pseudocodigo y código en Matlab. La lista de algoritmos que tenemos contemplados por el momento son:

  • Algoritmo Genético.
  • Evolución Diferencial.
  • PSO (Optimización por enjambre de partículas).
  • Algoritmo inspirado en los estados de la materia.
  • Optimización por colonia de hormigas.
  • Búsqueda del Cuckoo
  • (coloca aquí el algoritmo en el que estés interesado)

Algunos problemas que estarán contemplados mas adelante y que utilizan un proceso de optimización son:

  • Segmentación inteligente de imágenes:
    Este proceso busca separar el fondo de uno o varios objetos en una imagen, para ello utiliza el histograma de la imagen, y busca representar esta información estadística mediante una sumatoria de gaussianas parametrizadas.
  • Asignación dinámica de canal en comunicaciones inalámbricas:
    Busca vincular a cada usuario con un conjunto de entre los canales disponibles del sistema, de forma que el sistema incremente su eficiencia en el uso espectral.
  • Entre otros.

Dejanos saber en los comentarios si tienes un problema en especifico que utiliza estos algoritmos o bien que consideres implementarlos para su solución. Dinos también si te interesa que incluyamos una revisión de alguno en especifico.

Si estas interesado en escribir sobre alguna implementación propia o compartir tu experiencia escribiendo para el blog, estamos buscando gente como tu. Dejanos saber que estas ahí.

Algoritmos que van mas allá.