Browsing articles in "S.Expertos"

¡El equipo de “RTD” les desea una muy Feliz Navidad y un próspero Año Nuevo!

Dic 22, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en ¡El equipo de “RTD” les desea una muy Feliz Navidad y un próspero Año Nuevo!

El equipo de Sistemas Inteligentes de Control y Gestión e I3B les desea que pasen una muy feliz Navidad y un inmejorable Año 2012.

Navidad en I3B. Ziur (nuestro avatar) visita un Belén…: 

 

 

Una forma Natural de resolver la Innovación. Los Algoritmos Genéticos y la Competencia Interna

Dic 20, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en Una forma Natural de resolver la Innovación. Los Algoritmos Genéticos y la Competencia Interna

Hace unos meses escribí un post explicando qué eran los Algoritmos Genéticos, y su funcionalidad. Releyendo a Jose Luís Larrea y sus cinco leyes de la innovación, no puedo dejar de pensar en cómo la Naturaleza, con sus métodos evolutivos, aplica la innovación en cada individuo que se genera.

La Innovación se basa en las siguientes cinco reglas :

La primera ley, el Círculo de Leonardo, pone de manifiesto que sólo es posible una innovación sostenible y que aporte valor si se equilibra la creatividad y la modelización sobre la base de unos valores. La segunda ley, el combate, evidencia que todo proceso de innovación pasa por gestionar las contradicciones inherentes a cualquier cambio, evolución y progreso.  La tercera ley, la aventura, tiene que ver con el reto de convivir con más preguntas que respuestas y disfrutar con ello. La cuarta ley proyecta el desafío de la innovación en el universo de los valores marginales.  Por último, la quinta ley, enfatiza la importancia del tiempo en cualquier proceso de innovación. Todas estas leyes se relacionan, formando la idea clave de una espiral de la innovación.

Por otro lado, la Naturaleza ha construido un método para ir aplicando respuestas a problemas del tipo n-complejos, de una forma sencilla: la Evolución. Y desde el Dpto. de Inteligencia Artificial en I3B, la emulamos en la aplicación de los mismo métodos como alternativa a búsquedas líneas o métodos heurísticos pesados y de poda, en base a Algoritmos Genéticos.

La relación de esta solución con las cinco leyes de la Innovación es clara. Por un lado, desde el punto de vista morfológico, los Algoritmos Genéticos se basan en un ciclo que copia, al igual que el lenguaje de la innovación, el funcionamiento de lo que nos rodea. Así, la Innovación tiene su inspiración en la serie de Fibonacci, en los fractales o en la armonía natural, pero no olvidemos que estos modelos se ha forjado gracias al intercambio genético entre individuos: dejamos de ser una copia exacta de nuestros antecesores, para ser mezclas genéticas de los mismos, con el objetivo de amoldarnos de manera más efectiva a un entorno hostil y variable, con un alto coste: la mortalidad. Lo mismo ocurre con los Algoritmos Genéticos, los mejores individuos sobreviven para dar lugar a nuevas generaciones, que a su vez, perecerán hasta que la adaptación llegue a unos umbrales mínimos de satisfacción. Al igual que en el Círculo de Leonardo, este tipo de soluciones tienen inherentes el lema de “se debe romper el orden para innovar”, principalmente porque el orden no existe, sino simplemente, un deseo innato de adaptación al medio.

Pero a su vez, dicho caos, determinado en cierta parte por el azar de la selección de los primeros individuos, se va modelando a lo largo de los distintos ciclos (generaciones), de acorde con una meta: seleccionar la solución o soluciones más adecuadas al problema.  Y en este proceso, existen contradicciones, como en todo proceso biológico, que el mismo sistema debe resolver, como lo son:

□        La evaluación de candidatos

□        La selección de los padres (¿Cuáles seleccionamos? ¿Los mejores? ¿Aleatoriamente?)

□        La mezcla de individuos

□        El salto generacional (el paso al siguiente ciclo), es decir, mantenemos los mejores individuos en la siguiente generación, o dejamos que sea la selección natural la que nos guíe, utilizando una selección de tipo torneo (“El Combate”)…

Y en todo este proceso, el sistema siempre está “viajando” por el mapa de soluciones, sin dejar de sondear, de forma paralela, como si de un laboratorio se tratase, las distintas posibilidades de solución, pero controlando, por medio de su función de evaluación, que dichas contradicciones no desvíen la atención de sistema a la función objetivo, es decir, como dice la tercera ley, “la organización innovadora aprende con el tiempo a manejar un tamaño óptimo, entre el tiempo de las preguntas y el tiempo en encontrar las respuestas…“.

Sin embargo, si dejásemos que sólo la selección natural y el emparejamiento influyesen en la “aventura” de encontrar las mejores soluciones, estaríamos perdiendo información, y sobre todo, tendríamos un gran problema, los mínimos locales. Un sistema de este tipo, al llegar a un mínimo local (una colina, pero no la montaña), podría estacionarse en dicha solución, y propagar los genes del mejor individuo infinitamente al resto de generaciones, es decir, a sus descendientes hasta que nos detendríamos en un punto que no es el óptimo. Para evitar esta situación,  existe otro componente en los Algoritmos Genéticos,  “marginal”, pero sumamente importante, que es la mutación. De vez en cuando, un individuo modifica alguno de sus genes, saliéndose de la normalidad de sus “hermanos”, y compartiendo con el resto un nuevo componente no tenido en cuenta hasta entonces, y que quizás, sea el que haga que la búsqueda de la solución “salte” de la colina a la montaña. Al igual que la cuarta ley de la innovación dice que “El desafío de la innovación está en el universo de los valores marginales“, el verdadero desafío matemático en la fortaleza de los Algoritmos Genéticos está en su capacidad de marginal de modificar valores puntuales en individuos puntuales. Y es precisamente esta capacidad la que permite un salto de rendimiento con respecto a otras técnicas, como las búsquedas aleatorias o ascenso a la colina (Hill Climbing).

Por último, y como relación con la quinta ley de la innovación, “el Tiempo“, está demostrado que los Algoritmos Genéticos encuentran soluciones en un entorno multivariable y complejo, de una forma óptima (ver la Figura abajo), precisamente, por la conjunción de los puntos explicados anteriormente.

 

Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos de una manera muy acorde con las leyes de la innovación, principalmente, porque no se basan en el conocimiento del problema para su solución, sino que se articulan en base a una serie de ciclos en los cuales una serie de individuos “idean” una solución, son evaluados, se seleccionan las soluciones más adecuadas, y por medio de un intercambio de información (conocimiento), y algunas variaciones al mismo (valores marginales), se vuelve a generar otro ciclo que comienza de nuevo la búsqueda. Este proceso es muy similar al de espiral de la innovación, que no deja de ser una evolución en ciclos de preguntas/respuestas.

La “poética de la innovación” nos habla de los principios inspiradores de la innovación, de la conceptualización de los sistemas de innovación sobre la base de unos valores, con los motores de la tecnología, el conocimiento y la cooperación, y con el impulso y dirección del liderazgo cooperativo.

Y efectivamente, la colaboración, hoy en día es un valor en alza (Web 2.0), y una parte indispensable en los procesos de gestión y de innovación. Pero la teoría de la evolución aplicada, (que es cómo podríamos llamar a los Algoritmos Genéticos), tiene un componente más, a mi parecer, muy importante, y poco implementado, tanto en la gestión de proyectos, como en otros ámbitos: el de la competencia interna (la externa es obvia, y peleamos todos los días contra ella).

¿Qué es, a mi parecer, la competencia interna?: En los Algoritmos Genéticos, en cada ciclo, se gestionan múltiples soluciones a un problema (un número variable de individuos por generación), y no existe comunicación entre los distintos individuos que la gestionan, sino que cada uno de ellos y de forma egoísta (otra vez Smith), intentan optimizar los recursos para obtener la mejor solución, sin interesarse por lo que están haciendo otros individuos a su alrededor. Eso es competencia interna, puesto que existe un componente de “prestigio social” inherente a ver quién es el que encuentra la mejor solución, quién es el mejor individuo.

Y es al finalizar el ciclo, cuando dicha información “egoísta”, se comparte (se ordena por la función evaluadora), se seleccionan los mejores individuos, y bien, por selección aleatoria, por torneo, u otros métodos, se mezcla  la información genética de los mismos (por pares), para dar lugar a dos nuevos individuos, diferentes que los padres, pero enriquecidos por la colaboración.

En definitiva, se produce un intercambio de información (colaboración), después de un proceso de competición interna entre individuos (=conjuntos de genes) que buscan la mejor solución. Y esta acción redunda en el siguiente ciclo, pues en paralelo, la información se va optimizando y compartiendo.

Lo usual, es que cuando abordamos un proyecto, de cualquier naturaleza, se designe un equipo (uno sólo), que comienza a trabajar, y llega hasta el final, como bien sepa o pueda (=temple simulado). Pero, ¿no sería interesante emular a la evolución, y crear un modelo de varios equipos, que vayan ideando soluciones puntuales en cada ciclo del proyecto, de forma independiente, y que, después, las pusieran en común, se seleccionasen las mejores, se mezclasen entre ellas y volviese a comenzar el ciclo? Tendríamos un modelo en el que se trabajaría con las bases del conocimiento, la competencia, y la colaboración. Un modelo completo…con resultados efectivos… aunque quizás con mayor coste. No debemos olvidar que la Naturaleza no optimiza recursos (la polinización es un ejemplo claro de derroche), pero asegura resultados, y a la larga, quizás, esto justifique la inversión.

(más información sobre artículos relacionados en www.i3b.ibermatica.com/i3b/articulos)

Proporción Áurea, serie de Fibonacci, fractales y redes neuronales

Oct 20, 2011   //   by oa.usun   //   S.Expertos  //  7 Comments

La proporción Áurea cuenta con una larga tradición en la cultura occidental. También llamada sección áurea, proporción divina o número áureo, en realidad se trata de un principio simple, aunque al mismo tiempo enigmático, que se repite hasta el infinito en la naturaleza, el arte y la ciencia. Podemos observar la proporción áurea en la disposición de las semillas en ciertas plantas, en el árbol genealógico de las abejas, en las pirámides, en catedrales góticas, en obras artísticas del Renacimiento, en el cuerpo humano o en conchas, por mencionar solamente algunos de los casos incontables en que se observa este fenómeno.

Los matemáticos lo llaman, el número de oro, número dorado, sección áurea, razón áurea, razón dorada, media áurea, proporción áurea y divina proporción, representado por la letra griega Φ (phi) (en honor al escultor griego Fidias), es el número irracional 1,6180339 … Su historia se remonta a los cálculos que aparecen en tablillas babilónicas y continúa hoy en los fractales de nuestra era digitalizada. Sin embargo, esto solo permite describir de modo muy superficial la singularidad y belleza de esta proporción que rige la naturaleza y sirve desde hace 2.500 años de hilo conductor estético en el arte y la arquitectura.

Da Vinci hizo las ilustraciones para una disertación publicada por Luca Pacioli en 1509 titulada De Divina Proportione, quizás la referencia más temprana en la literatura a otro de sus nombres, el de “Divina Proporción”. Este libro contiene los dibujos hechos por Leonardo da Vinci de los cinco sólidos platónicos. Es probable que fuera Leonardo quien diera por primera vez el nombre de sectio áurea.

Los artistas de Renacimiento utilizaron la sección áurea en múltiples ocasiones tanto en pintura, escultura como arquitectura para lograr el equilibrio y la belleza. Leonardo da Vinci, por ejemplo, la utilizó para definir todas las proporciones fundamentales en su pintura La última cena, desde las dimensiones de la mesa, hasta la disposición de Cristo y los discípulos sentados, así como las proporciones de las paredes y ventanas al fondo.

Leonardo da Vinci, en su cuadro dela Gioconda(o Mona Lisa) utilizó rectángulos áureos para plasmar el rostro de Mona Lisa. Se pueden localizar muchos detalles de su rostro, empezando porque el mismo rostro se encuadra en un rectángulo áureo.

La sección áurea en el arte:

Relaciones arquitectónicas en las Pirámides de Egipto.

La relación entre las partes, el techo y las columnas del Partenón, en Atenas (s. V a. C.).

En los violines, la ubicación de las efes (los “oídos”, u orificios en la tapa) se relaciona con el número áureo.

El número áureo aparece en las relaciones entre altura y ancho de los objetos y personas que aparecen en las obras de Miguel Ángel, Durero y Da Vinci, entre otros.

Las relaciones entre articulaciones en el hombre de Vitruvio y en otras obras de Leonardo da Vinci.

En las estructuras formales de las sonatas de Mozart, en la Quinta Sinfonía de Beethoven, en obras de Schubert y Debussý (estos compositores probablemente compusieron estas relaciones de manera inconsciente, basándose en equilibrios de masas sonoras).

Arte Póvera, movimiento artístico italiano de los años 1960, muchas de cuyas obras están basadas en esta sucesión de Fibonacci.

En la cinta de Darren Aronofsky Pi, el orden del caos el personaje central, Max Cohen, explica la relación que hay entre los números de Fibonacci y la sección áurea, aunque denominándola incorrectamente como Theta (θ) en vez de phi (Φ).

Si se indaga más en los detalles, y según el propio Leonardo de Pisa Fibonacci, en su Libro de los ábacos, la secuencia puede ayudar a calcular casi perfectamente el número de pares de conejos n meses después de que una primera pareja comienza a reproducirse (suponiendo que los conejos se empiezan a reproducir cuando tienen dos meses de edad).

La relación entre la cantidad de abejas macho y abejas hembra en un panal.

La relación entre la distancia entre las espiras del interior espiralado de cualquier caracol (no sólo del nautilus).

La relación entre los lados de un pentáculo.

La relación entre los lados de un pentágono.

La disposición de los pétalos de las flores (el papel del número áureo en la botánica recibe el nombre de Ley de Ludwig).

La distribución de las hojas en un tallo.

La relación entre las nervaduras de las hojas de los árboles.

La relación entre el grosor de las ramas principales y el tronco, o entre las ramas principales y las secundarias (el grosor de una equivale a Φ tomando como unidad la rama superior).

La distancia entre las espirales de una piña.

Los patrones matemáticos dirigen muchas formas de la naturaleza, hay numerosos ejemplos de sistemas en forma de fractales, sucesiones de Fibonacci, patrones que siguen el número áureo y que dan lugar a formas muy bellas.

En 1654 Pascal y Fermat elaboraron su teoría de la probabilidad y así nació el cálculo de probabilidades como nueva rama de la matemática. Pascal pasó mucho tiempo estudiando el triángulo que ahora se denomina “triangulo de Pascal” y que constituye la base de determinadas propiedades peculiares de la probabilidad. Pascal no era consciente de que en el triangulo aparecen los números de Fibonacci.

A lo largo de los siglos, la ciencia matemática ha creado con los números un sistema destinado a descifrar el caos del mundo y a ordenarlo, captando datos empíricos sobre el universo y la propia humanidad.

La Anatomía de los humanos se basa en una relación Phi exacta, así vemos que:

– La relación entre la altura de un ser humano y la altura de su ombligo.

– La relación entre la distancia del hombro a los dedos y la distancia del codo a los dedos.

– La relación entre la altura de la cadera y la altura de la rodilla.

– La relación entre el primer hueso de los dedos (metacarpiano) y la primera falange, o entre la primera y la segunda, o entre la segunda y la tercera, si dividimos todo es phi.

– La relación entre el diámetro de la boca y el de la nariz.

– Es phi la relación entre el diámetro externo de los ojos y la línea inter-pupilar

– Cuando la tráquea se divide en sus bronquios, si se mide el diámetro de los bronquios por el de la tráquea se obtiene phi, o el de la aorta con sus dos ramas terminales (ilíacas primitivas).

– Está comprobado que la mayor cantidad de números phi en el cuerpo y el rostro hacen que la mayoría de las personas reconozcan a esos individuos como proporcionados y son considerados como canon de belleza.

El siguiente vídeo es muy recomendable: Nature by Numbers

¿Pero que tiene que ver esta serie con la Inteligencia Artificial? 

En principio, parecería que nada, pero ahondando un poco, existen ciertas relaciones. Por ejemplo, en estudios de comportamiento en Bolsa, se utiliza la serie Fibonacci como uno de los pilares en la predicción de patrones de comportamiento humanos y de series temporales en la bolsa.  ¿Cómo se hace? Pues, básicamente, superponiendo a las seres bursátiles una foto de la espiral de fibonacci, y aquellos puntos en los que se cruzan, son puntos sensibles de analizar con la hipótesis que son puntos de inflexión sobre la misma, que los patrones se repiten en dichos puntos.

En los años 30, después de la gran depresión americana, Ralph Nelson Elliott descubrió que la situación anímica de una gran cantidad de operadores afectaba al precio de los valores. Por medio del análisis de patrones llego a la conclusión de que cada patrón era parte de otro patrón o molde superior, el cual estaba dividido en patrones inferiores. En el grafico siguiente vemos en patrón básico de una onda de Elliot.

Como vemos en el gráfico y como postula Elliott en su teoría, los valores se mueven en cinco patrones u ondas en la misma dirección que la tendencia principal, y en tres ondas en la dirección contraria a la tendencia principal. Las primeras ondas se denominan impulsivas, y las segundas correctivas. Este patrón de ocho ondas corresponde a un patrón superior, y cada onda de este patrón contiene a su vez ocho ondas. Para ver mejor este fenómeno observemos el siguiente grafico:

En él se pueden observar como hay dos ondas principales (1 y 2), que a su vez están compuestas por ocho ondas más ((1),(2),(3),(4),(5),(A),(B),(C)). En estas ondas podemos ver el modelo anterior compuesto por 5 ondas impulsivas (alcistas) y tres ondas correctivas (bajistas).En total se subdividen en 34 ondas.

Si intentamos buscar una relación entre los números de Fibonacci comprobaremos que la proporción se acerca a 1,618, o a lo que es lo mismo, su inverso 0,618. Cuanto más alto sean los números más se acercarán a esta proporción. (http://www.negomobile.es/sites/default/files/data/proyectos/GESCAVAL/DOC_Gescaval_IA.pdf)

Pero además, existen otras aplicaciones, como las búsquedas de soluciones. En post anteriores, hamos hablado de Algoritmos Genéticos, que, al final, no son más que algoritmos avanzados de búsquedas con el objetivo de minimizar los reultados engañosos o “mínimos locales”.

La solución a un problema se puede representar como la búsqueda de un cierto punto en un espacio de dos simensiones con muchos puntos, y normalmente, las búsquedas lineales, lo que hacen es recorrer punto por punto hasta encontrar uno adecuado. Pero, y si,  en vez de buscar en base a líneas, ¿buscamos en base a espirales? Pues encontraremos en un menor lapso de tiempo los puntos adecuados, ya que nos movemos por el espacio bidimensional de una forma ordenada pero con patrones extendidos. En técnicas de búsqueda de personas u objetos perdidos, es lo que se denomina búsqueda compacta. ¿Por qué no aplicarlo a las búsqueda de soluciones en entornos digitales?

Pero además, en el departamento de IA de Ibermática, estamos convencidos de que la representación del conocimiento sigue este tipo de patrones, como una parte más de un conjunto universal de estructuras y estamos trabajando en demostrar que sistemas basados en estas métricas mejoran los procedimientos actuales de resolución de procesos en distintos contextos.

Un ejemplo, el cerebro. Podemos relacionar la sucesión de números de Fibonacci con las neuronas cerebrales:

“Si hace 15 años le hubiéramos preguntado a un neurocientífico cómo se comunican las neuronas de nuestro cerebro nos habría respondido: Un impulso eléctrico viaja a lo largo de la neurona, y cuando llega a su final libera señales químicas para comunicarse con la siguiente.  Revolución: añadid las ondas cerebrales como una nueva manera de coordinar a distancia diferentes partes del cerebro.”

(http://lacomunidad.elpais.com/apuntes-cientificos-desde-el-mit/2010/10/16/tus-neuronas-se-comunican-con-senales-electricas-quimicas-y)

Donde la proporción de ondas theta y gamma sigue secuencias de la serie de Fibonacci usada en la proporción áurea.

Pero además, hasta ahora, no se comprendía porqué, el cerebro, y sus estrucuturas naturales, eran capaces de procesar tanta información en tan poco tiempo, con una velocidad bastante inferior a la de los procesadores digitales actuales.  El cerebro es paralelo por completo, con gran cantidad de elementos procesadores (en torno a 10exp12) que están altamente interconectados (hasta 10.000 conexiones por neurona). Sin embargo, el tiempo de procesamiento es lento – de mili segundos. Ademas, existen organismos unicelulares, como el Protozoo Paramecium, que nadan, encuentran comida, se relacionan aprenden y recuerdan sin necesidad de sinapsis. (Sherrington, 1957).

Entonces, ¿cómo es posible que se den razonamientos, y en tan poco tiempo?

Recientemente, se ha descubierto que, además de la sinapsis y las estructuras neuronales,  (las que, por cierto, no pueden ser tan estructuradas con las artificiales, pero de eso hablaré en otro “post”),  existen unas estructuras denominadas “microtubos”, que, al parecer, regulan el comportamiento celular, de los protozoos e incluso de la sinapsis neuronal.  (Hameroff y Watt, 1982; Hameroff, 1987)

Es decir, cada neurona contiene una estructura “microtubular” compuesta por polímeros “autoensamblados”  en base a la proteina tubulina, formando cilindros con celosías hexagonales en las que se cruzan los filamentos emparejados según la serie de Fibonacci, en simetría helicoidal.  Estas estructuras se convierten en “automatas moleculares” , de la siguiente forma:

10 tubulinas en cada neurona oscilando en un rango de  10valores por segundo (por ejemplo, Pokorny 8 MHz) ofrece una capacidad de información en el nivel de los microtúbulos de 1015 operaciones por segundo por cada neurona. Esta capacidad de proceso en una única célula es similar a las estimaciones para el procesamiento de la información a nivel de las neuronas y las sinapsis, pero para todo el cerebro (1011 neuronas, sinapsis por neurona 10, 10transmisiones por sinapsis por segundo =  1016 operaciones por segundo). La capacidad total del cerebro cuando se toman al nivel de los microtúbulos (en 1011 Neuronas) podrían ser potencialmente 1026 operaciones por segundo.

Estas estructuras , dentro de cada neurona,  son capaces de modificar su “mapa interno” en base a los “inputs” de otras neuronas, convirtiendo de repente a cada una de estas neuronas, en un principio, sencillas, en un potente computador cuasi-cuántico, y explicando de esta forma, la rapidez del procesamiento cerebral. Y la estructura que “almacena” cada uno de los n-estados posibles es una jerarquía en forma de hélice de Fibonacci. Interesante…..

A pesar de disponer de herramientas y lenguajes de programación diseñados expresamente para el desarrollo de máquinas inteligentes, existe un enorme problema que limita los resultados que se pueden obtener: estas máquinas se implementan sobre computadoras basadas en la filosofía de Von Neumann, y que se apoyan en una descripción secuencial del proceso de tratamiento de la información. Si bien el desarrollo de estas computadoras es espectacular, no deja de seguir la línea antes expuesta: una máquina que es capaz de realizar tareas mecánicas de forma increíblemente rápida, como por ejemplo cálculo, ordenación o control, pero incapaz de obtener resultados aceptables cuando se trata de tareas como reconocimiento de formas, voz, etc.

Quizás, el futuro de la nuevas máquinas de aprendizaje pasen por imitar a la naturaleza, comenzando por sus propias estructuras físicas….

Oscar Alonso / Aitor Moreno

Arte e Inteligencia Artificial

Oct 3, 2011   //   by oa.usun   //   S.Expertos  //  2 Comments

Durante los últimos años se ha venido observando que existen cada vez más proyectos artísticos que han sido desarrollados con medios tecnológicos que ofrecen planteamientos innovadores a la investigación de la vida artificial.

Pueden tratarse de proyectos que se basan en sistemas que emulan, imitan o especulan sobre la noción de vida a través de las investigaciones y las tecnologías actuales. Estos sistemas pueden presentar atributos de agencia y autonomía, que muestren un comportamiento propio, que sean dinámicos, reaccionen a su entorno y evolucionen, y que cuestionen las fronteras entre lo vivo y lo no vivo, entre la vida sintética y la vida orgánica.

Son proyectos interdisciplinares que responden a los nuevos desarrollos en Vida Artificial. Por medio de estrategias formales que desafían los límites entre las prácticas existentes, y que ofrecen nuevos modos de pensar acerca de aquello que entendemos por vida.

Algunos ejemplos son:

GENESIS del artista brasileño Eduardo Kac, donde una criatura de vida artificial, en este caso una bacteria que, cuando se ilumina, emite una luz ultravioleta. Dentro de este organismo el artista ha insertado un fragmento de ADN cuya secuencia es una traducción del pasaje de la Biblia en el que Dios concede al hombre el control sobre la naturaleza. El mutante que resulta es a continuación presentado en una caja de Petri, como si se tratara de una reliquia sagrada : La palabra de Dios hecha carne. Genesis es una obra compleja y conceptualmente difícil que juega con nuestro miedo hacia el poder de la biotecnología, hacia el peligro que supone para nuestra propia biología el cambio en la relación de control que tenemos con la naturaleza. Pero también apunta a una alternativa, dado que el artísta hace rambién posible que el público utilice Internet para inducir mutaciones en la minuciosa ingeniería genética de la bacteria. La ilusión del control biotecnológico nunca es absoluto.

AUTOPOIESIS, del artista interdisciplinar Ken Rinaldo y que está compuesta por quince esculturas robóticas construidas con ramas de vid. El conjunto responde a la presencia del observador con movimientos y sonidos mediante sensores inteligentes que detectan la ubicación del espectador. El intercambio de datos entre las quince esculturas robóticas crea un comportamiento colectivo en constante evolución, en la obra y espectador interactúan de manera recíproca. El interna y la evolución del sistema contribuyen a una poderosa estética escultórica en la que el espectador afecta el comportamiento del conjunto y viceversa.

EDEN, del artista electrónico Jon McCormack, es un ecosistema artificial interactivo y autogenerado. Utilizando el modelo de autómata celular de vida artificial, es ecosistema de criaturas en constante evolución tiene características similares a las de un entorno real. Las criaturas buscan alimento, se enfrentan a depredadores y se reproducen entre sí. Simultáneamente se mueven a través del entorno virtual transmitiendo y escuchando sus sonidos mutuos, y generando un paisaje sonoro que escuchamos mientras presenciamos la instalación. La supervivencia del mundo virtual depende de la presencia de la gente en la instalación, ya que sus movimientos alimentan a las criaturas. El mundo artificial se proyecta sobre dos pantallas translúcidas en forma de “X”. Esta original configuración crea trasparencias y efectos de profundidad que enriquecen la lectura de la obra. Eden ilustra las propiedades emergentes y naturaleza abierta de sistemas de vida artificial.

Algoritmos Genéticos: Búsqueda de soluciones en “paisajes” adaptativos complejos

Sep 5, 2011   //   by wpuser   //   S.Expertos  //  4 Comments

 

Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos (NP completo) en base a la teoría evolutiva de Darwin, y su esencia y funcionamiento es muy sencillo:

darwin_game

darwin_game
  • Se generan una serie de individuos al azar, cada uno de los cuales, es una solución al problema.
  • Una función evaluadora “puntúa” a cada individuo, según un criterio (en este caso, el espacio libre que queda).
  • Se seleccionan los mejores individuos.
  • Se emparejan de forma selectiva los individuos seleccionados: Así, obtenemos una segunda generación de nuevos individuos (=soluciones), con las características (=genes) de los mejores “padres” de la solución anterior.
  • Se introduce cierto ruido, (para evitar mínimos locales), en forma de mutaciones, es decir, en este caso, modificando las características de los genes de algún individuo.
Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos de una manera muy de acorde con las leyes naturales, principalmente, porque no se basan en el conocimiento del problema para su solución, sino que se articulan en base a una serie de ciclos en los cuales una serie de individuos “idean” una solución, son evaluados, se seleccionan las soluciones más adecuadas, y por medio de un intercambio de información (conocimiento), y algunas variaciones al mismo (valores marginales), se vuelve a generar otro ciclo que comienza de nuevo la búsqueda. Es decir, que una vez construida un algoritmo genético, éste sirve para cualquier tipo de problema, sólo hay que modificar la función evaluación del mismo.

ag_algoritmo

Con estos algoritmos, se consigue “navegar” por el espacio de soluciones ante un problema de una forma muy rápida, llegando de una manera muy eficiente a la solución, y además, evitando mínimos locales.

Un típico ejemplo es la selección de la “mejor” ruta del viajante, como se ve en el ejemplo de la siguiente figura:

Pero lo verdaderamente interesante de este método de búsqueda es lo siguiente:

□        El sistema no tiene implementada en su lógica de búsqueda la solución del problema.

Es decir, el sistema no busca una solución en base al conocimiento del problema, de hecho, ni siquiera conoce el problema, sólo, genera individuos al azar, y luego los evalúa… Pero no se implementa en ningún lugar qué es lo que se quiere conseguir.

□        Los resultados no son previsibles, no es un procedimiento “guiado”.

Al no existir ninguna restricción sobre cuál es el objetivo, el sistema intenta converger hasta llegar al mejor o mejores individuos, pero el resultado puede ser incompresible en contra de un método clásico, pero mejorar los resultados. Un ejemplo clásico suele ser la configuración de antenas en función de su entorno electromagnético. Como se ve en la figura, la forma de la antena es extraña, pero es la mejor de las soluciones, incluidas las determinadas de forma empírica.

Diseños industriales en base a AG.

Y precisamente, esta forma de dar solución a problemas de manera no guiada, sino determinada por la adaptación de los individuos (soluciones) al entorno (solución del problema), es dónde encontramos la ventaja frente a otros métodos, precisamente por el hecho de que los resultados no son esperados o calculados por medio de un intento de modelar las soluciones al problema. Son entornos dinámicos y evolutivos.

Si los individuos, en vez de tener en sus “genes” valores, como ciudades, en el ejemplo anterior, tendrían gramáticas, los sistemas pueden generar gramáticas de forma automática, con lo que, podemos, por ejemplo, a partir de una serie de datos, puntos, coordenadas, o valores, obtener las ecuaciones que los satisfagan. En este caso, podemos generar sistemas complejos (e incluso programas), que de forma automática, satisfagan una serie de restricciones, y con un objetivo determinado. (Estos métodos se denominan Computación Evolutiva, pero la base es la misma que los Algoritmos Genéticos).

En la siguiente figura, se puede ver un ejemplo de un solución ante una serie de puntos. (Una buena forma de determinar la correlación de las ecuaciones sobre las nubes de puntos es en base al coeficiente de Pearson):

 

Otro punto de interés es la unificación de dos componentes hasta ahora antagónicos en la forma de abordar problemas en “paisajes” adaptativos complejos (problemas NP-completo).

□        Por un lado, está la teoría clásica de Adam Smith, en el que prima la consecución de los objetivos.

  • Algoritmos que utilizan esta filosofía de “ataque” lo son la heurística voraz, o el método de temple simulado (simulated annealing), que no deja de ser un caso particular de Algoritmos Genéticos. En estas soluciones, un solo individuo intenta dar solución al problema moviéndose por el espacio de resoluciones.

□        Por otro lado, el equilibrio de John Nash, en el que encontramos una teoría de colaboración, y como ejemplo, encontramos la teoría de juegos, o incluso sistemas paralelos como redes neuronales o bayesianas en competición colaborativa.

Los Algoritmos Genéticos aúnan las dos vías, en un ciclo evolutivo, en el que, por una parte, se buscan soluciones en paralelo primando la consecución de un objetivo, el de minimizar el error, y por otro, al final de cada ciclo, se comparte la mejor información para comenzar un nuevo ciclo con los mejores conocimientos (nótese el plural) del ciclo anterior.

En definitiva, los AG son un método de búsqueda que tiene las siguientes ventajas:

•Trabajan con un conjunto de puntos, no con un único punto y su entorno (su técnica de búsqueda es global.).

•Utilizan operadores probabilísticos, no deterministas.

•Son intrínsecamente paralelos. Los AG tienen descendencia múltiple, pueden explorar el espacio de soluciones en múltiples direcciones a la vez.

•Se desenvuelven bien en problemas con un paisaje adaptativo complejo. Escapan de mínimos globales.

•Habilidad para manipular muchos parámetros simultáneamente.

•Los AG no saben nada de los problemas que deben resolver.

y también sus desventajas:

•Hay que definir bien la representación del problema.

•El problema de cómo escribir la función objetivo debe considerarse cuidadosamente para que se pueda alcanzar una mayor aptitud.

•Deben elegirse cuidadosamente los otros parámetros de un AG -el tamaño de la población, el ritmo de mutación y cruzamiento, el tipo y fuerza de la selección

Existe un problema típico para evaluar los algoritmos de solución de problemas complejos (el “Hello Word” de los NP-completos), que es el problema de la mochila. Existen en el mercado numerosos programas que resuelven problemas logísticos de este tipo (se puede ver una relación de los mismos en la página:

http://www.mecalux.es/navigation/event/detailinterview.jsp?idinterview=28623096).

La definición del problema es la siguiente:

“El problema de la mochila consiste en llenar una mochila con n objetos. Cada objeto i tiene un peso determinado ci siempre positivo y una utilidad o valor asociado, también positivo, bi. Se ha de considerar además que la mochila tiene una capacidad limitada P, por tanto, se han de escoger aquellos objetos xi que maximicen la utilidad de quien llena la mochila sin exceder su capacidad”.

Ahora procederemos a formular el problema de la mochila:

Maximizar [Sumatoria (bi*xi) desde i= 1 hasta n]

sujeto a: xi Є {0,1} con i =1, …, n

Sumatoria (ci*xi) desde i=1 hasta n < P

En concreto, vamo a resolver un caso particular, según el siguiente enunciado:

Tenemos 10 cajas con los siguientes pesos:

5, 7, 12, 14, 23, 4, 6, 9, 4 ,6 kilos, y un contenedor que sólo puede contener 55 kilos.

¿Cuál es la mejor distribución?

Definición de la función a maximizar:

i = {1, 2, 3, 4, 5, 6, 7, 8, 9 ,10}

bi = 1    mismo valor para todos los pesos

ci = {5, 7, 12, 14, 23, 4, 6, 9, 4 ,6}

P = 55

En la tabla adjunta, se muestra una comparativa de los resultados con distintas técnicas de búsqueda: (Por ejemplo , con Algoritmos Heurísitcos , en conctretpo Bakctraking y Teoría de Grafos y  con Solver…):

Sin embargo, si dejásemos que sólo la selección natural y el emparejamiento influyesen en la “aventura” de encontrar las mejores soluciones, estaríamos perdiendo información, y sobre todo, tendríamos un gran problema, los mínimos locales.

Un sistema de este tipo, al llegar a un mínimo local (una colina, pero no la montaña), podría estacionarse en dicha solución, y propagar los genes del mejor individuo infinitamente al resto de generaciones, es decir, a sus descendientes hasta que nos detendríamos en un punto que no es el óptimo. Otros métodos han dado solución a este problema  generando saltos, que permitan evitar las “colina”, por ejemplo, el “temple simulado” (simulated annealing), pero la ventaja de los AG es que, en vez de ser un único individuo el que realiza la búsqueda, esta se realiza en paralelo por varios “agentes” a la vez.

 

minimos_locales

Los AG se están aplicando en múltiples aplicaciones, optimización, procesos industriales, interacción hombre-máquina, medicina, minería de datos….

Los problemas de optimización complejos, ya tienen un buen método de resolución, rápido y eficaz, los Algoritmos Genéticos…

En Ibermática, hemos aplicado estos métodos a aplicaciones como la optimización de colocación de piezas en superficies 2D, dentro de entornos industriales, o la selecciones de los mejores métodos de análisis en entornos de datos muy variables y complejos, de forma automática.

GuiDes en Fraude Social

Jul 19, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en GuiDes en Fraude Social

GuiDes es una plataforma de Apoyo a la Decisión en Tiempo Real, que integra las más novedosas técnicas en tratamiento de información para extraer conocimiento inferido, de forma que permita predecir comportamientos a futuro, y en base a estas clasificaciones, segmentaciones y prospectivas, “alertar” a los usuarios expertos sobre en qué parte del total de la información tienen que “enfocar” los esfuerzos de análisis avanzado. De esta forma, se cambia el paradigma de utilizar el 80% del tiempo en revisar el 100% de la información sin conocer “a priori”, dónde esta información es válida, y obteniendo un ROI de la extracción de tan sólo el 20% de las alerta importantes, autilizar el 20% del tiempo en analizar el 80% del las alertas realmente relevantes.

En el contexto del Fraude Social, Ibermática se ha unido a SAS y a Deneb para desarrollar una plataforma global de ayuda a la gestión de aquellos posibles “círculos” de riesgo en políticas sociales, en base a la integración de los sistemas actuales de las Administraciones Públicas y Empresas que deseen conocer cuál es su estado actual con respecto al Fraude interno y externo, así como suministrarles una Herramienta Global que satisfaga las necesidades de detección precoz del fraude, así como de integración del conocimiento experto disperso en la Organización en un repositorio único, común y compartido.

 

 

Los objetivos de GuiDes Fraude Social son los siguientes:

•Ayuda a los técnicos en la instrumentación de reglas para el seguimiento y control de la concesión de ayudas sociales.
•Detección de anomalías en las pautas de comportamiento.
•Sistema de alertas sobre casos inciertos.
•Sistema de representación gráfica de zonas con probabilidad alta de fraude.
•Plataforma de integración de información y seguimiento de la correcta utilización de las ayudas.
•Aprendizaje automático ante nuevos casos de fraude.
GuiDes Fraude Social está configurado con los siguiente módulos:
  • Integración de fuentes de información (ETL).
  • Modelo automático de detección de fraude
  • Control de Padrón.
  • Detección de anomalías en las pautas de comportamiento.
  • Sistema de alertas sobre casos inciertos.
  • Sistema de representación gráfica de zonas con probabilidad alta de fraude.
  • Aprendizaje automático ante nuevos casos de fraude.
  • Análisis de Redes Sociales
  • Módulo de aprobación de reglas e introducción de conocimiento técnico en el sistema.
  • Motor de reglas y ejecución de los controles.
  • Representación gráfica de la información y gestión de alertas

Estado del Arte.

En la década de los 80, las soluciones tecnológicas al respecto de la detección y control del fraude se basaban en la implementación de reglas programadas y técnicas de gestión de alertas que identificaban patrones específicos buscados.

En la década de los 90, se comenzaron aplicar nuevas tecnologías, tales como las búsquedas den bases de datos, la combinación de los datos, informes que reportaban eventos que superaban umbrales determinados de alertas, y básicamente, la consulta reactiva “a posteriori” en grandes volúmenes de datos con el objetivo de encontrar discrepancias (anomalías) sobre la normalidad.

Hoy en día, los rápidos avances en la tecnología, permiten construir modelos predictivos basados en comparativas estadísticas de patrones de actuación, así como el análisis de redes sociales que muestran, de forma gráfica y geoposicionada, vínculos entre agentes y su posible estado fraudulento. Además, los sistemas tienen una gran capacidad de aprendizaje sobre las actuaciones generadas en base a las alertas detectadas.

 

 

 

Integración de fuentes de información

•Acceso a cualquier tipo de información tanto estructurada como no estructurada. Aplicación de técnicas de calidad de datos

 •Asociatividad, “matching” de valores “similares”, completitud de registros…

•Posibilidad de integrar información de reglas de fraude de otros sistemas de fraude ya existentes

•Minería de Textos y Web

 

 

Cuadro de Mando de Alertas

 

•Alertas ordenadas por severidad / probabilidad de fraude

•Generadas en tiempo real mediante reglas, detección analítica de valores anómalos y modelos predictivos

•Alertas para personas, empresas y redes de empresas

•Asignación de alertas a personas

Gestión de Reglas

Espacio Colaborativo de Conocimiento Experto

•Plataforma del conocimiento de técnicos e inspectores.

•Una fuente de datos única y fiable

•Entorno colaborativo entre técnicos

Modelos predictivos

•Situaciones anómalas

•Relaciones no evidentes

•Comportamientos sospechosos.

•Minería de datos.

Detección de Patrones y Correlación de Eventos de Forma Efectiva

 •Clasifican la información en grados de pertenencia o no a un determinado patrón de riesgo de fraude.

A partir de un grupo de hechos conocidos (eventos) se genera un grupo de reglas (axiomas)

•Empresas o individuos que se desvían de los comportamientos de su segmento, en cuanto a horas extras declaradas, número de empleados dados de alta, incrementos injustificados de bases de cotización

•Búsqueda de variables ocultas que han determinado comportamientos fraudulentos en el pasado: altas-bajas de trabajadores, ceses de actividad, falsos autónomos, fraude en prestaciones por desempleo…

 

Representación de la información

•Acceso integrado desde la alerta al detalle de los casos sospechosos

 •Visión conjunta de indicadores de fraude detectados automáticamente

•Monitorización de métricas, a través de un cuadro de mando, para determinar la efectividad y eficiencia de las medidas antifraude

 

 

Detección de fraudes del padrón

Por posicionamiento de direcciones en la cartografía catastral de los ayuntamientos.

 

Análisis de Relaciones – Sugerencia de Plan de inspección (Personas -> Empresas -> Contactos)

 

 

En definitiva, Guides Fraude Social, es una herramienta completa que permite la gestión avanzada en la detección de fraude social, basándose en las últimas tecnologías de analítica, movilidad, redes sociales y geoposición, integrando los sistemas propietarios de los clientes en un sistema de decisión en tiempo real automático.

 

 

Resumen:

 Detección y generación de alertas gracias a una aplicación combinada de métodos.

Gestión e integración de datos procedentes de múltiples fuentes, tanto externas como internas.

Análisis de redes sociales para poder ir más allá del análisis de entidades aisladas.

La gestión de casos integrada proporciona un entorno unificado de investigación.

Mantenimiento Predictivo en Procesos Industriales. Solución vertical Ibermática – SAS

Jul 11, 2011   //   by wpuser   //   S.Expertos  //  1 Comment

El Mantenimiento Predictivo, a diferencia del Preventivo, que asume que los equipos, máquinas e instalaciones siguen cierta clase de comportamiento estadístico, verifica muy de cerca la operación de cada máquina en su entorno real. Esto implica un seguimiento del desgaste de piezas o componentes de equipos críticos a través del análisis de síntomas y evaluación estadística extrapolando ese comportamiento al futuro para determinar el punto exacto de cambio. Con los resultados de inspecciones, medidas y controles del nivel de condición de los equipos, y cotejando esta información con un histórico de incidencias, es posible anticipar averías y evitar roturas y paradas de producción. Ambos tipos de mantenimiento se complementan a la perfección, pues el Predictivo permite decidir cuándo hacer el Preventivo.

El Mantenimiento Predictivo es, por tanto, un sistema de control inteligente que permite advertir la tendencia a entrar en riesgo de un bien mediante el monitoreo de condición, esto es, la elección, medición y seguimiento de los parámetros relevantes que representan el buen funcionamiento de la máquina, su contexto, los históricos de incidencias, la ubicación, la época del año, y todas aquellas variables, que, de forma automática, el sistema detecta como “influyentes” con una posible incidencia futura, sin tener que realizar estudios previos al respecto.

 

Ibermática, junto a SAS, ha desarrollado un sistema vertical de Mantenimiento Predictivo integrando nuestro conocimiento de los procesos de mantenimiento de SAP con el motor de inteligencia estadística y predictiva de SAS. Esta colaboración nos permite ofrecerle la más avanzada solución integral para el tratamiento de los procesos de Mantenimiento Industrial. Si desea conocer las ventajas que aporta esta tecnología, contáctenos.

La Inteligencia Artificial se ha convertido en un componente básico en los procesos de negocio

Jul 5, 2011   //   by wpuser   //   S.Expertos  //  1 Comment

Estamos en un momento en el que las empresas cada vez demandan más control y conocimiento sobre toda la información que les compete, sobre todo aquella que está en formato no estructurado (actas, correos, documentación, webs, etc…), y que cada vez, debido a sus volúmenes, es más intratable. Sin embargo, en los ambientes académicos y universitarios (así como en las administraciones anglosajonas, entornos económicos, militares y de seguridad), las herramientas que permiten tratar dicha información ha alcanzado una edad muy madura. Está ocurriendo algo similar que recuerda a la evolución del Business Intelligence en las empresas. No hace demasiados años, mientras en el mundo de la información en general se destinaban ingentes esfuerzos en obtener informes estáticos que cambiaban cada pocos días en función de las necesidades del cliente (¿quién no lo ha vivido?), se empezaba a hablar de cubos, dimensiones, medidas, DatawareHouse, cosas que sonaban más o menos a chino. Y aquellos que supieron estar atentos, (leáse Cognos), fueron los que se llevaron el gato al agua. Hoy en día, ¿qué empresa que presuma de tener un buen sistema de gestión prescinde de sus cubitos? Pues lo mismo está empezando a ocurrir con el DataMining y las búsquedas semánticas. Y los primeros indicadores ya está ahí, Oracle publicita su producto OracleDataMining, para detectar relaciones entre sus datos y análisis de predicción, SAP ha comprado a BusinessObject Enterprise para liderar este movimiento, Microsoft incorpora Datamining en SQL Server, IBM ha comprado a SPSS Clementine para lo mismo, Google ha desarrollado sus propias herramientas para detectar quién sabe qué en la red, y no sigo contando. Es decir, que auguro que dentro de cinco años, aquel que no tenga algo de Datamining en su sistema, (que no deja de ser una explotación inteligente del DatawareHouse, pero automática), no será nadie en sistemas de gestión.

En Ibermática llevamos años tratando grandes volúmenes de datos de forma automatizada en base a algoritmos estadísticos, de aprendizaje supervisado y no supervisado, de forma que las “reglas de negocio” extraidas en base a estos estudios automatizados, se integran con sitemas expertos que son capaces de analizar en tiempo real nuevos volúmenes de información, detectando:

– Anomalías sobre la información

– Relaciones no evidentes entre los datos

– Perfiles de agrupamientos de atributos que defininen “de forma autónoma” agentes dentro del negocio.

– Predicciones sobre lo que va a ocurrir en el futuro, en base a los datos actuales y los históricos tratados.

Estas funcionalidades se pueden aplicar en todos los contextos empresariales, en industria para optimizar las planificacione sy los mantenimientos (mantenimientos predictivos), en medicina (los humanos somos máquinas complejas), en banca, seguros, y todo lo que se nos demande.

Red Neuronal

Red Neuronal

La Inteligencia Artificial (IA) se está imponiendo en diversas disciplinas tecnológicas y forma parte del software, la minería de datos o los asistentes virtuales, sin que tenga una visibilidad clara para el usuario. De ahí reside la necesidad de conectar el mundo de la investigación y la universidad con el de la empresa, como postula Ibermática. Su relevancia en el mundo corporativo es crucial como elemento integrado en áreas como el marketing, la gestión de la información o la prospección de redes sociales.

El estado actual de la Inteligencia Artificial (IA) y su aplicación en el negocio fueron los ejes centrales del encuentro organizado por Computing, en colaboración con Ibermática, y en la que participaron expertos en la materia tanto del entorno empresarial como universitario y de I+D. La IA es una materia que se puede definir como una rama de la Computación dedicada al desarrollo de agentes racionales no vivos que buscan emular el comportamiento humano a través de algoritmos capaces de obtener respuesta de datos de cualquier procedencia. Una ciencia por tanto que para el común de los mortales parece vivir en el plano de la ciencia ficción y alejada del mundo real, pero que sin embargo está más incorporada al entorno cotidiano de lo que puede parecer. Así lo constata Aitor Moreno de Leceta, responsable de Sistemas Inteligentes de Control y Gestión de Ibermática, “la IA se está imponiendo en casi todas las disciplinas informáticas. Las grandes empresas están integrando en sus paquetes minería de datos, reconocimiento de voz, asistentes virtuales, algoritmos genéticos para racionalizar procesos, reconocimiento de caracteres…”. Y es que aunque el usuario no lo ve, según Moreno, “utiliza buscadores, reconocimiento de matrículas, radares, agentes virtuales, semántica en redes virtuales, voz para acceso de minusvalías”, lo cual indica que se va imponiendo de forma silenciosa.

Desde Ibermática también se aprecia que existen muchas aplicaciones interesantes desarrolladas en centros y universidades pero que son difíciles de conectar con el tejido empresarial, “bien porque el mercado tiene las demandas pero no conoce estas soluciones, bien porque el ámbito universitario está más preocupado por publicar y tener sus índices de referencias, por lo que no se avanza más allá de la investigación básica y no llegan a la parte industrial”.

Gestión de Tráfico – Ejemplo de Análisis Estadístico vs Minería de Datos (Reglas de Asociación).

Jul 4, 2011   //   by wpuser   //   S.Expertos  //  1 Comment

1.    Resumen:

El diseño de un Sistema de Control y Regulación del Tráfico está pensado para incrementar la eficiencia y capacidad del sistema de transporte y mejorar su seguridad. El sistema de control de tráfico consiste en esencia en unos dispositivos que permitan detectar las situaciones anómalas, un centro de control en el que se reciben las informaciones de los detectores y se adoptan las decisiones pertinentes, y un medio para comunicar estas decisiones a los usuarios finales. Los sistemas de captación son los encargados de la captación de datos de tráfico, especialmente velocidad, intensidad y densidad. Estos datos son mandados al centro de control donde son tratados mediante algoritmos y se establece un mapa continuo del estado del tráfico, se genera una base de datos y se simula para analizar situaciones concretas.

En definitiva, se desarrolla un sistema que, en función a diversas variables, detecte el nivel de flujo del tráfico (fluido, denso, condensado), y las anomalías (detección automática de incidentes) que se produzcan, pero que, además, sea capaz de predecir cómo se va a comportar el sistema en el futuro inmediato en función del estado actual, o en función de un día/hora determinados.

Así pues, los principales problemas residen en definir qué es tráfico denso, fluido, o condensado, en función de que parámetros de definen dichos valores, qué umbrales de dichos valores el sistema determina un estado u otro, y cuándo dichos valores muestran a una anormalidad que indique la posible presencia de un incidente.

En definitiva, es un problema de ponderar unos indicadores para clasificar los estados de los distintos tramos, y una vez definida esta clasificación, poder predecir el estado a futuro en base a las mismas reglas que en el estado actual.

 

2.    Comparativa de métodos

2.1. Análisis Estadístico.

El análisis estadístico está basado en al obtención de unos componentes principales que identifiquen el estado de las carreteras, normalmente basados en las medias de velocidad e intensidad, y la comparativa de estos valores con unos umbrales determinados por tramo. La definición de estos umbrales  puede ser “a priori”, o basado en históricos, es decir, a priori, en base a la experiencia de los controladores, o basado en las medias históricas que se han obtenido del análisis del archivo histórico de una carretera.

2.1.1. Flujo del tráfico.

La valoración del tráfico en un punto se realiza a partir de tres magnitudes básicas:

INTENSIDAD, OCUPACIÓN y VELOCIDAD. La fórmula que liga a las tres variables es la siguiente: (siendo “Ve” la velocidad media espacial)

I=DVe

Esta relación liga por tanto las tres magnitudes fundamentales y permite calcular una de ellas (generalmente la densidad) en función de las otras dos.

 

Cuando la densidad sea nula, también lo será la intensidad; y cuando la densidad alcance su valor máximo, por anularse la velocidad media, se anulará también la intensidad. El hecho de que exista un valor máximo de la intensidad que puede circular por una carretera es de la mayor importancia. Este valor máximo se conoce como capacidad de la carretera, y la densidad para la que se obtiene se llama densidad crítica. Cuando la densidad es menor que la crítica, el tráfico se mantiene relativamente fluido y estable, en el sentido que si se produce alguna pequeña perturbación que aumente momentáneamente la densidad de tráfico, tiende a disiparse y volver a la situación anterior. Por el contrario, cuando la densidad es superior a la crítica, las perturbaciones tienden a producir un empeoramiento de la situación que puede llegar a la detención total del tráfico

El diagrama que representa la intensidad en función de la densidad se conoce como diagrama fundamental del tráfico, y en él puede obtenerse para cualquier punto la intensidad (ordenada), densidad (abscisa) y velocidad media (pendiente de la recta que une el origen con el punto en cuestión).

Se estima que la densidad crítica suele ser del orden del 30% al 40% de la densidad máxima. En definitiva, si queremos aumentar la capacidad de una vía actuando sobre la velocidad, debemos obligar a circular a una velocidad determinada, por debajo del límite establecido. Esta será aquella que nos sitúe en la parte de la gráfica próxima a la capacidad en condiciones de circulación estable. A menor velocidad, mayor densidad e intensidad. Lo que se consigue, es evitar que los vehículos se paren

Conociendo la capacidad de la vía, su geometría y la experiencia de un experto, se pueden definir ciertos umbrales de los valores intensidad, ocupación y velocidad para los cuales se determine si el tráfico es fluido (por ejemplo, velocidad media > 70), denso (velocidad media < 69), o condensado (velocidad media < 50).

Lo usual es que sobre la variable densidad se determinen los estados del flujo (curva Intensidad/Densidad):

 

  • Detección de anomalías.

La detección automática de incidentes intenta identificar los incidentes analizando los datos proporcionados por los sensores. Diversos algoritmos de detección se han desarrollado. Todos constan de comparación de datos tales como volumen, ocupaciones o velocidades con valores umbral pensados para indicar la presencia de congestión resultado del incidente. Algunos algoritmos, además, comparan datos de estaciones adyacentes.

2.1.2. Estado del arte de los principales algoritmos estadísticos para la detección de incidencias en el tráfico.

  • Algoritmo California

Desarrollado a finales de los años 60 en Los Ángeles, los algoritmos California comparan las condiciones del tráfico entre dos estaciones detectores adyacentes. El análisis del algoritmo se basa en el seguimiento de las siguientes variables de ocupación:

• Diferencia absoluta de ocupación entre los detectores aguas arriba y aguas abajo.

• Diferencia entre la ocupación medida en los detectores aguas arriba y aguas abajo relativa a la ocupación aguas arriba.

• Diferencia entre la ocupación medida en los detectores aguas arriba y aguas abajo relativa a la ocupación aguas abajo.

  • Análisis de ondas

Recientemente desarrollado en la Universidad de Berkeley, este algoritmo analiza las diferencias entre las ocupaciones acumuladas aguas arriba y aguas abajo buscando perturbaciones significativas. Bajo unas condiciones normales de tráfico la diferencia acumulada siempre está alrededor de cero. Diferencias sustanciales sugieren la presencia de un incidente.

  • Algoritmo APID (All Puryose Incident Detection)

El algoritmo APID fue desarrollado en el sistema avanzado de gestión del tráfico

COMPASS de Toronto. Incorpora y expande la mayoría de los elementos del algoritmo

California en una sola estructura. El sistema APID incluye un algoritmo general de detección para usar bajo condiciones de tráfico extremas, para condiciones de tráfico bajo, medio, un test para comparación de ondas y un test de persistencia. Algunos tests demuestran que este algoritmo trabaja mejor bajo condiciones de gran volumen de tráfico, mientras que para bajos volúmenes sus resultados son un poco pobres.

  • Algoritmo Pattern Recognition(PATREG)

El algoritmo PATREG fue desarrollado en el Transport and Road Reserch Lab (TRRL) como parte de su sistema de detección automática de incidentes. Este algoritmo se usa junto al algoritmo HIOCC para la detección de incidentes en las vías rápidas del Reino

Unido. El algoritmo estima la velocidad de los vehículos mediante la medición de tiempos de recorrido entre detectores. El algoritmo compara estas velocidades con unos umbrales preestablecidos, dando lugar a una alarma cuando los valores caen respecto a estos umbrales. Algunas evaluaciones de este algoritmo muestran que tiene problemas cuando el tráfico excede de los 1500 vph.

  • Algoritmo Mónica

Desarrollado en 1991 dentro del programa europeo DRIVE 1, Mónica fue testada durante los dos primeros años del proyecto HERMES. Basado en la medición de los valores y la variación de los avances entre vehículos (dT) y de la diferencia de velocidad entre sucesivos vehículos (dV), se producen señales de alarma cuando estos parámetros experimentan grandes perturbaciones y exceden unos umbrales preestablecidos. El algoritmo Mónica es independiente del numero de carriles y del comportamiento del tráfico en otras secciones, pero requiere distancias cortas entre detectores (500 — 600 m).

  • Desviación estándar normal (SND Standar Normal Deviation)

El algoritmo SND fue desarrollado en el Texas Transportation Institute (III) a principio de los 70 para ser usado en el centro de control instalado en Houston Gulf Freeway (1-

45). Está basado en la premisa de que un cambio brusco en la medida de una variable del tráfico sugiere que un incidente ha ocurrido. El algoritmo compara continuamente las medias de ocupación, calculadas en un minuto, con valores históricos de la media y la desviación estándar normal. Dependiendo de la estrategia a seguir, la media y la desviación estándar se calculan sobre tres minutos de tiempo o cinco minutos y una o dos iteraciones sucesivas del SND han de ser críticas para dar la alarma.

  • Algoritmo series de tiempo ARIMA

El modelo sostiene que las diferencias en variables medidas en el tiempo presente (t) y las mismas variables justo en un instante de tiempo anterior (t- 1) pueden ser predichas haciendo la media de los errores entre la predicción y la observación desde los tres períodos de tiempo anteriores. Este modelo se usa para desarrollar previsiones a corto plazo. Los datos que se desvíen de estas previsiones desencadenarán una alarma.

  • Algoritmo de alta ocupación. HIOCC (High Occupancy Algorithm)

Desarrollado en Inglaterra, el algoritmo HIOCC inspecciona los datos referentes a la ocupación de un detector individual en busca de la presencia de vehículos estacionarios o circulando muy lentamente. Una computadora escanea los datos referentes a la ocupación de los detectores cada décima de segundo, y muchos valores consecutivos de la ocupación instantánea son examinados para ver si exceden los umbrales marcados por el algoritmo.

  • Algoritmo exponencial de uniformidad

Estos algoritmos sopesan las observaciones de ocupación pasadas y presentes para pronosticar condiciones futuras de tráfico. La mayoría de este tipo de algoritmos deben ser expresados matemáticamente como una función exponencial simple o doble, con una constante de uniformidad que tiene en cuenta observaciones pasadas. En algunos modelos los incidentes son detectados usando una señal de rastreo, definida como la suma de todos los errores anteriores (diferencias entre el parámetro pronosticado y el actual). Bajo condiciones normales, la señal de rastreo debe oscilar alrededor de cero.

Cuando ocurre un incidente el parámetro previsto y el actual deben diferir de forma que la señal de rastreo se desviará de cero.

2.1.3.  Ventajas del Análisis Estadístico.

  • No requiere implementar algoritmos complejos multivariable y de regresión o series temporales.
  • Implantación de un sistema clásico de programación para determinar flujos de tráfico y posibles incidencias.

2.1.4.  Desventajas del Análisis Estadístico.

  • La principal desventaja del Análisis Estadístico reside en la definición de los umbrales sobre los que se “dispararán” las alertas, bien de estados, bien de incidencias. Por un lado, los límites serán diferentes para cada uno de los tramos, dado que las características del tráfico varían en gran medida según la configuración de la vía (número de carriles, anchura de carriles, existencia de arcén, pendiente, ….).
  • Estos umbrales no tienen en consideración otras variables que afectan al tráfico como lo son el estado meteorológico, los cambios de sentido en situaciones de obras u accidentes de ciertos carriles, y lo que es más importante, los hábitos de desplazamientos de los usuarios (fines de semanas, vacaciones, horas putas, puntos negros, etc…).
  • La puesta en marcha de un sistema complejo de regulación basado en este sistema de umbrales es costosa, en base a un  ajuste de los umbrales por cada tramo en función de las respuestas del sistema.
  • No son sistemas evolutivos, ya que nuevas configuraciones del entorno no afecta a los valores de umbrales, a no ser que se reajusten manualmente. En general, se considera que la demanda y número de usuarios se mantiene estable en el tiempo de las configuraciones de los umbrales, y lo que se espera es una mejor distribución de los volúmenes de las diferentes vías, lo cuál, no es siempre cierto.

2.2. Minería de Datos. Reglas de Asociación.

2.2.1.  Reglas de Asociación. Introducción.

Las reglas de asociación obtienen una serie de parejas “condicionante-conclusión” en función a los datos pasados de forma automática, y además, según el sistema evoluciona, se pueden incorporar más reglas a la definición de un tramo como “fluido”, “denso” o “congestionado”, o modificar las existentes en función a las nuevas acciones realizadas sobre el sistema.

Tanto la técnica de Clasificación como la de Predicción buscan la definición de los valores de un determinado atributo, conocido en un conjunto de datos de prueba, en base a los valores de otros atributos. En nuestro caso, el atributo a obtener es, o bien, el estado del tráfico en un tramo, o bien, la posibilidad de existencia de una incidencia en dicho tramo. Dicho atributo se denomina etiqueta o label. Sus valores, han de ser conocidos en la muestra que se utiliza para extraer el modelo. Un tipo habitual de estos modelos son los modelos basados en reglas, por ejemplo:

Si MODELO = SP02GASTO_MENSUAL > 105

ENTONCES ABANDONO = si

Si EDAD < 18GASTO_MENSAJES > 35

ENTONCES ABANDONO = si

Si OFERTA = TT12RESIDENCIA = MADRIDCASADO = si > 105

ENTONCES ABANDONO = no

En relación al conjunto de datos usado para extraer el modelo se suele dividir en dos subconjuntos, uno de ellos denominado conjunto de entrenamiento (training data set) es el usado para generar el modelo, mientras que el otro subconjunto, conjunto de prueba (testing data set) se usa para contrastar la predicción del modelo con datos no usados durante su entrenamiento. Es evidente, por tanto, la necesidad de históricos de los estados del tráfico en el pasado, (denso, fluido, condensado), y os valores de los atributos (densidad, intensidad, velocidad, fecha, condiciones meteorológicas, cortes, obras…) de cada tramo en relación a dicho estado.

Para cada una de las reglas obtenidas, se proporciona un valor de probabilidad de que dicha regla sea cierta sobre el conjunto de valores.

No existe diferencia entre la clasificación o la predicción, ya que las reglas que se ejecutan para ambos casos son las mismas.

Un ejemplo sencillo de la extracción de conocimiento con reglas de asociación se muestra en la siguiente figura:

En el caso de que llegase un nuevo titular desconocido, el sistema podría clasificar en función de las reglas al desconocido como fijo o no en función de sus datos. Posteriormente, si dicha clasificación fuese incorrecta, y se corrigiese, se lanzaría de nuevo el algoritmo de árboles de decisión, pudiéndose generar una nueva regla, o modificándose las anteriores. Así, otro ejemplo de un árbol de decisión generado de forma automática se muestra en la siguiente figura:

 

 

Una de las principales ventajas de los algoritmos de reglas de asociación (utilizamos en este caso el algoritmo C45), es que la propia “poda” de las ramas de los árboles definen qué atributos del total de atributos en el sistema (velocidad, temperatura, día festivo, estado de otras carreteras, etc…), son las que tienen correlación con los valores objetivos, de forma, que podemos extraernos de la obtención de los atributos que se correlacionan con una solución concreta.

2.2.2.  Reglas de Asociación aplicadas a la Gestión de Tráfico.

En función de los históricos que tenemos de las condiciones del tráfico en el pasado (fluido, denso, congestión), el registro de incidencias (accidentes, obras), y los valores de las distintas variables en el momento de producirse los cambios de estado o la generación de incidencias, podemos generar de forma automática un modelo que represente al sistema multivariable en distintos espacios temporales, que clasifique la información que devuelven los distintos sensores en el momento actual, y que prediga que ocurrirá en el futuro partiendo de cualquier momento temporal determinado.

Así, tenemos una serie de indicadores por tramo y fecha (tráfico generado durante varios meses):

 

Referencia 1 Pkfinal IM Intensidad Fecha/hora
AP-8 30 20 2 10:05
N-IA 2 15 23 10:05
AP-8 38 10 10 10:05
N-IA 2 23 38 10:05

 

Y una relación de los estados en los que han estado dichos tramos en esas fechas/horas:

 

Tiempos Fecha/hora (con formato extendido) 276 250 248 249
10:25 TR001 TRAKING TRAKING TRAKING
11:05 TR001 TR001 TRAKING TRAKING
11:07 TR001 TR001 TR001 TRAKING
11:20 TR002 TR001 TR001 TRAKING
15:00 TR002 TR001 TR001 TR001
15:07 TR002 TR002 TR002 TR001
16:00 TR002 TR002 TR002 TR002
17:00 TRAKING TRAKING TRAKING TRAKING
10:15 TRAKING TRAKING TRAKING TRAKING
10:25 TR001 TRAKING TRAKING TRAKING
11:05 TR001 TR001 TRAKING TRAKING
11:07 TR001 TR001 TR001 TRAKING
11:20 TR002 TR001 TR001 TRAKING
15:00 TR002 TR001 TR001 TR001
15:07 TR002 TR002 TR002 TR001
16:00 TR002 TR002 TR002 TR002

Unimos la información de dichas tablas, y obtenemos, por un lado, reglas que nos definen los atributos que determinan el estado de los tramos, y por otro lado, reglas que nos determinan las relaciones de las tablas en un espacio temporal determinado (si una referencia tiene un accidente, otra lejana puede que comience a saturarse). De esta forma, obtenemos reglas del siguiente tipo:

– Reglas de estados (ejemplo para una referencia):

if IMD > 29.500 then Sin Incidencia  (14 / 0 / 6 / 0)

if IMD ≤ 20 then Tráfico Lento  (0 / 2 / 0 / 0)
if IMD ≤ 27 and fecha = 5/21/08 then Sin Incidencia  (1 / 0 / 0 / 0)
if fecha = 1/23/10 then Tráfico Denso  (0 / 0 / 1 / 0)
if fecha = 6/26/08 then Sin Incidencia  (1 / 0 / 0 / 0)
else Tráfico Denso  (0 / 0 / 0 / 0)

– Reglas de relaciones entre referencias (“T” es la referencia temporal):

Si RF1 = TR001 y “T” = 1 entonces RF2 = AC000

Si RF1 = TR001 y “T” = 3 entonces RF2 = TR001

Si RF2 = TR002 y “T” = 1 entonces RF4 = TR001

Si RF2 = TR002 y “T” = 2 entonces RF4 = TR002

Estas reglas se ubican en un “contenedor” de reglas, y se lanza un motor de ejecución de las reglas  que optimiza la ejecución de las mismas, la transitividad, asociatividad y concurrencia, en base al algoritmo Rete (Charles Forgy).

Según se van modificando los comportamientos, acciones, comunicaciones y valores de cualquiera de los atributos del sistema, o de todos, las reglas se van generando, modificando, añadiendo o borrando en función a la generación de los árboles de decisión. Si por ejemplo, en un momento determinado, se incluye una nueva variable al sistema, como pudiera ser el estado del hielo en las carreteras, este valor, una vez que comience a iterar con el sistema, incorporará nuevas reglas que afectarán a la densidad del tráfico o a la posibilidad de accidentes en invierno.

2.2.3.  Ventajas de las reglas de Asociación.

  • Sistema multivariable y basado en la repetición estadística de eventos en históricos, de generación automática.
  • Varía con el entorno, con las modificaciones tanto de atributos como de valores de forma automática.
  • Aprende con la evolución del sistema, sin necesidad de reprogramación .
  • Modificación automática de los valores umbrales en función a las respuestas del sistema, y a su gestión automática.
  • .Es capaz de explicar (mostrar las reglas que se han ejecutado) las razones de una acción. (Es fluido por que han ejecutado “n” reglas….).

2.2.4.  Desventajas de las reglas de Asociación.

  • Necesidad de Históricos para un buen funcionamiento a futuro.

2.2.5.  Algoritmos Utilizados.

  • Repeated Incremental Pruning to Produce Error Reduction (RIPPER, Cohen 1995).
  • Tobias Scheffer: Finding Association Rules That Trade Support Optimally against Confidence. In: 5th European Conference on Principles of Data Mining and Knowledge Discovery, 424-435, 2001.
Páginas:«12