Browsing articles in "S.Expertos"

Mantenimiento Proactivo. Adelantándose a las incidencias críticas. Webminar gratuito…

Feb 7, 2012   //   by wpuser   //   S.Expertos  //  1 Comment

¿Es el mantenimiento una función destacada en su empresa? ¿Dedica importantes recursos a solucionar incidencias importantes? ¿Y si le dijéramos que es posible anticiparlas fiablemente?

Seguro que le resulta fácil imaginar las ventajas de la predicción de incidencias críticas de mantenimiento: optimización de procesos y servicios, de la producción, de recursos asignados, minimización de costes… Pero, ¿cómo lograrlo? Para ello resulta fundamental la aplicación de las nuevas tecnologías, cuya evolución permite el tratamiento masivo de datos en tiempo real, combinándolo con el análisis estadístico y predictivo y la información registrada en históricos.

De este modo en Ibermática, junto a SAS, hemos desarrollado nuestro Mantenimiento Proactivo, fruto de la combinación de nuestro conocimiento con el motor de inteligencia estadística y predictiva de SAS. Un sistema capaz de determinar de forma autónoma cuando se va a producir un evento crítico y de explicar sus razones y las medidas a tomar con antelación suficiente para garantizar su eficacia. Y, además, integrable con cualquier ERP.

Tenemos el placer de invitarle a un webinar (seminario informativo por Internet) en el que, sin moverse de su sitio, profundizar en las ventajas que una solución como ésta le puede aportar.

Aproveche esta oportunidad única e inscríbase, a la recepción de su inscripción le remitiremos las instrucciones de conexión al webinar.

Minería de datos y Sistemas Expertos

Dic 27, 2011   //   by jc.cantera   //   S.Expertos  //  2 Comments

En primer lugar, realizaremos un breve repaso de conceptos de minería de datos

¿Para qué sirve la minería de datos? Podemos necesitar información de:

  • Patrones de Consumos en Particulares
  • Patrones de Consumos en Empresas
  • Posibles Fugas y Alertas
  • ¿Dónde puedo optimizar mi oferta?
  • ¿Cómo puedo reducir mis costes?

Actualmente se disponen de grandes cantidades de datos, por lo que podríamos pensar que es fácil llegar a alguna conclusión respecto a las necesidades anteriores. Se inicia la búsqueda de datos, de secuencias, de hábitos, en archivos, en dispositivos, en informes, en internet…

Fuentes de datos

Con todo esto se forma un conjunto masivo de datos: Es necesario formar conjuntos coherentes, «normalizar» la información, especialmente si está en distintos soportes y las fuentes son heterogéneas.

Una vez hecho este esfuerzo inicial, el análisis tradicional se basa en realizar consultas con cuyos resultados se generan gráficos estadísticos, cubos, tablas dinámicas.
Esto nos lleva a un proceso cíclico en el que hay que seleccionar qué variables se utilizarán (p.e. cliente, producto, centro), qué umbrales para los valores, y cómo se determinan las reglas.

Tras la realización de estos estudios, vienen las posibles implementaciones: Configuradores de productos basados en las preferencias detectadas, venta guiada por internet, apoyo a la decisión en tiempo real, asistentes virtuales, en banca y seguros, por ejemplo.

¿Podría lograrse que:

  • La información relevante se extraiga sola del conjunto de datos
  • Se descubran patrones de comportamiento de forma automática
  • Se generen reglas de negocio con la misma facilidad que le aprieta un botón
  • Las reglas generadas puedan ejecutarse, lanzando alarmas en caso de anormalidad
  • El sistema aprenda con cada nueva transacción
  • Se puedan introducir nuevas reglas, de forma manual y colaborativa?

¿Cómo se puede hacer esto? Combinando técnicas de minería de datos con sistemas expertos.

La minería de datos constituye un conjunto de procedimientos para el descubrimiento del conocimiento, tales como:

  •  Segmentación
  •  Clasificación
  •  Predicción
  •  Obtención de reglas mediante algoritmos de asociación, análisis de series temporales

Con todo esto se obtiene conocimiento del negocio, como por ejemplo:

  •  Detección de hábitos de compra
  •  Detección de patrones de fuga
  •  Detección de fraude
  •  Segmentación de clientes y asignación de los productos más adecuados
  •  Campañas de marketing

Sistemas expertos. Algoritmo RETE

Para poder utlizar este conocimiento extraído mediante la minería de datos se hace necesario contar con una herramienta más, los sistemas expertos. Las reglas del negocio obtenidas presentan un índice de fiabilidad o relevancia por las que se ordenan, seleccionando solamente las más importantes.

Los sistemas expertos basados en reglas utilizan el algoritmo RETE.

Las reglas expresan relaciones del tipo Si Condición Entonces Consecuente. Tanto condición como Consecuente pueden estar compuestos de varios términos.

Ventajas del empleo de reglas:

  • Las reglas nos permiten indicar «qué es lo que hay que hacer», no «cómo hacerlo». En este sentido, es mucho más fácil expresar soluciones a problemas complejos y, por tanto, obtener soluciones verificadas.
  • Las reglas permiten resolver problemas de gran complejidad, proporcionando una explicación de cómo se ha llegado a la conclusción y por qué se ha tomado la decisión. Esto es algo que no puede ser hecho por una red neuronal, por ejemplo.
  • Una ventaja más de un motor de reglas es que permite separar la lógica de los datos. De esta forma, la lógica  puede se mucho más fácil de mantener respecto a cambios futuros.
  • También se dan ventajas en cuanto a la velocidad y escalabilidad. El algoritmo RETE, así como Leaps y sus descendientes Drools, proporcionan muchas formas eficientes de comparar patrones de reglas sobre los datos.
  • El conocimiento está centralizado. Se crea una base de reglas que es un base de datos de conocimiento. Además, las reglas son, idealmente, legibles y pueden servir como documentación.
  • Se integra el motor de reglas dentro de la herramienta de desarrollo de software que se está utilizando.
  • Ayuda para explicación, y reglas comprensibles. La ejecución de reglas puede generar un log que explica qué decisiones se han tomado y por qué. Las reglas pueden estar escritas de una forma muy parecida al lenguaje natural, lo que facilitará la comprensión del proceso.

¿Cuándo usar un motor de reglas?

  • El problema es demasiado complejo para una programación tradicional
  • El problema no tiene una solución basada en un algoritmo obvio
  • La lógica cambia a menudo. Puede que la lógica sea sencilla, pero cambia con frecuencia
  • Existen expertos en el dominio tratado, disponibles en el momento, pero no son técnicos. Suele ocurrir que se disponga de expertos con una vasto conocimiento del negocio y que, no siendo técnicos sí son muy lógicos. Las reglas les permiten expresarse en sus propios términos.

¿Cuándo no usar un motor de reglas?

  • Si se trata de ejecutar un flujo de trabajo o procesos, el motor de reglas no es la herramienta adecuada.

Otras alternativas al uso de un motor de reglas, están basadas en motores basados en scripts, que soportan el dinamismo para cambios «sobre la marcha».
También existen motores de procesos, capaces de ejecutar flujos de trabajo, como jBPM, diseñados gráficamente, que describen pasos en un proceso; pasos que pueden implicar puntos de decisión en forma de regla. A menudo estos workflow y las reglas funcionan muy bien en conjunto.

Estructura de las reglas

La representación del conocimiento para un motor de reglas viene dada por una estructura de dos grandes partes, que llamaremos LHS (left hand side) y RHS  (right hand side), o parte izquierda y parte derecha. Adicionalmente, puede contener otros atributos, como la prioridad, el grupo de reglas al que pertenece, si se puede buclar, duración…

La parte izquierda consiste en elementos condicionales y columnas, construidos según lógica de primer orden. Los elementos condicionales son los operadores ‘and’, ‘or’, ‘not’, ‘exists’. Y las columnas determinan restricciones en los contenidos de los campos, de tipo ‘literal’, ‘límites’, ‘valor devuelto’.

La parte derecha (RHS) es parte de acción o consecuencia de una regla. Su propósito es quitar o añadir hechos en la memoria de trabajo, así como  invocar acciones arbitrarias en la aplicación. Es decir, es un bloque de código que se ejecuta cuando la regla se dispara.

Los hechos se «afirman» en la memoria de trabajo y son comparados con las restricciones determinadas por las reglas, que seleccionan a qué hechos afectan. Por ejemplo, si en una regla se encuentra la columna (restricción) Person.sex=»female», equivaldría a una sentencia SQL del tipo: select * from PEOPLE where People.sex == «female».

Algoritmo RETE

El algoritmo RETE fue inventado por el Dr. Charles Forgy y documentado en su tesis doctoral en 1978-79. Una versión simplificada se publicó en 1982:  http://citeseer.ist.psu.edu/context/505087/0
El nombre RETE viene del latín red. El algoritmo puede ser dividido en dos partes: en tiempo de compilación y el tiempo de ejecución.

La compilación del algoritmo describe cómo se genera una red eficiente de discriminación con las reglas en la memoria de producción. Es decir, la red se utiliza para filtrar los datos. La idea es filtrar los datos mientras se propagan a través de la red. Al principio hay muchos nodos que coinciden con el patrón, y según se avanza por la red, se van reduciendo las coincidencias. En la parte más profunda de la red están los nodos terminales. En el paper del Dr. Forgy de 1982 se describen 4 nodos básicos: raíz, 1-input, 2-input y terminal.

El nodo raíz es por el que todos los objetos entran en la red. Desde aquí, inmediatamente van al ObjectTypeNode, que tiene como propósito que el motor no realice más trabajo del necesario. Es decir, si tenemos dos objetos, Cuenta y Pedido, cuando se comparan propiedades objeto, sólo se procesan los nodos de tipo de objeto tratado.

Los nodos ObjectTypeNodes puedes propagarse hacia AlphaNodes, LeftInputAdapterNodes y BetaNodes.
Los AlphaNodes se usan para evaluar condiciones literales. En implementaciones posteriores se soportan otros tipos de operaciones. En Drools, por ejemplo, se optimiza la propagación mediante hashing.

Los BetaNodes se usan para comparar dos obejetos y sus campos, entre ellos. Los objetos pueden ser del mismo o diferente tipo. Son nodos con dos entradas (2-input nodes): JoinNode y NotNode. Por convención nos podemos referir a las dos entradas con izquierda y derecha. La entrada izquierda es, generalmente, una lista de objetos. La entrada derecha es un único objeto. La entrada izquierda es llamada Beta Memory y recuerda todas las tuplas entrantes. La derechas se llama Alpha Memory y recuerda los objetos entrantes. Si en algún momento se encuentra una relación entere los hechos (objeto) y las tuplas de la izquierda, el objeto se propagará hacia el siguiente nodo.

Los nodos Terminales se usan para indicar que en una regla se han cumplido todas sus condiciones. Si una regla contiene un ‘or’, se generan nodos terminales para cada rama lógica. Así pues, una regla puede tener múltiples nodos terminales.

Join Node

En Ibermatica hemos realizado con éxito aplicaciones utilizando motores de reglas, unidos a sistemas de minería de datos, tales como:

¡El equipo de «RTD» les desea una muy Feliz Navidad y un próspero Año Nuevo!

Dic 22, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en ¡El equipo de «RTD» les desea una muy Feliz Navidad y un próspero Año Nuevo!

El equipo de Sistemas Inteligentes de Control y Gestión e I3B les desea que pasen una muy feliz Navidad y un inmejorable Año 2012.

Navidad en I3B. Ziur (nuestro avatar) visita un Belén…: 

 

 

Una forma Natural de resolver la Innovación. Los Algoritmos Genéticos y la Competencia Interna

Dic 20, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en Una forma Natural de resolver la Innovación. Los Algoritmos Genéticos y la Competencia Interna

Hace unos meses escribí un post explicando qué eran los Algoritmos Genéticos, y su funcionalidad. Releyendo a Jose Luís Larrea y sus cinco leyes de la innovación, no puedo dejar de pensar en cómo la Naturaleza, con sus métodos evolutivos, aplica la innovación en cada individuo que se genera.

La Innovación se basa en las siguientes cinco reglas :

La primera ley, el Círculo de Leonardo, pone de manifiesto que sólo es posible una innovación sostenible y que aporte valor si se equilibra la creatividad y la modelización sobre la base de unos valores. La segunda ley, el combate, evidencia que todo proceso de innovación pasa por gestionar las contradicciones inherentes a cualquier cambio, evolución y progreso.  La tercera ley, la aventura, tiene que ver con el reto de convivir con más preguntas que respuestas y disfrutar con ello. La cuarta ley proyecta el desafío de la innovación en el universo de los valores marginales.  Por último, la quinta ley, enfatiza la importancia del tiempo en cualquier proceso de innovación. Todas estas leyes se relacionan, formando la idea clave de una espiral de la innovación.

Por otro lado, la Naturaleza ha construido un método para ir aplicando respuestas a problemas del tipo n-complejos, de una forma sencilla: la Evolución. Y desde el Dpto. de Inteligencia Artificial en I3B, la emulamos en la aplicación de los mismo métodos como alternativa a búsquedas líneas o métodos heurísticos pesados y de poda, en base a Algoritmos Genéticos.

La relación de esta solución con las cinco leyes de la Innovación es clara. Por un lado, desde el punto de vista morfológico, los Algoritmos Genéticos se basan en un ciclo que copia, al igual que el lenguaje de la innovación, el funcionamiento de lo que nos rodea. Así, la Innovación tiene su inspiración en la serie de Fibonacci, en los fractales o en la armonía natural, pero no olvidemos que estos modelos se ha forjado gracias al intercambio genético entre individuos: dejamos de ser una copia exacta de nuestros antecesores, para ser mezclas genéticas de los mismos, con el objetivo de amoldarnos de manera más efectiva a un entorno hostil y variable, con un alto coste: la mortalidad. Lo mismo ocurre con los Algoritmos Genéticos, los mejores individuos sobreviven para dar lugar a nuevas generaciones, que a su vez, perecerán hasta que la adaptación llegue a unos umbrales mínimos de satisfacción. Al igual que en el Círculo de Leonardo, este tipo de soluciones tienen inherentes el lema de “se debe romper el orden para innovar”, principalmente porque el orden no existe, sino simplemente, un deseo innato de adaptación al medio.

Pero a su vez, dicho caos, determinado en cierta parte por el azar de la selección de los primeros individuos, se va modelando a lo largo de los distintos ciclos (generaciones), de acorde con una meta: seleccionar la solución o soluciones más adecuadas al problema.  Y en este proceso, existen contradicciones, como en todo proceso biológico, que el mismo sistema debe resolver, como lo son:

□        La evaluación de candidatos

□        La selección de los padres (¿Cuáles seleccionamos? ¿Los mejores? ¿Aleatoriamente?)

□        La mezcla de individuos

□        El salto generacional (el paso al siguiente ciclo), es decir, mantenemos los mejores individuos en la siguiente generación, o dejamos que sea la selección natural la que nos guíe, utilizando una selección de tipo torneo («El Combate»)…

Y en todo este proceso, el sistema siempre está «viajando» por el mapa de soluciones, sin dejar de sondear, de forma paralela, como si de un laboratorio se tratase, las distintas posibilidades de solución, pero controlando, por medio de su función de evaluación, que dichas contradicciones no desvíen la atención de sistema a la función objetivo, es decir, como dice la tercera ley, «la organización innovadora aprende con el tiempo a manejar un tamaño óptimo, entre el tiempo de las preguntas y el tiempo en encontrar las respuestas…«.

Sin embargo, si dejásemos que sólo la selección natural y el emparejamiento influyesen en la «aventura» de encontrar las mejores soluciones, estaríamos perdiendo información, y sobre todo, tendríamos un gran problema, los mínimos locales. Un sistema de este tipo, al llegar a un mínimo local (una colina, pero no la montaña), podría estacionarse en dicha solución, y propagar los genes del mejor individuo infinitamente al resto de generaciones, es decir, a sus descendientes hasta que nos detendríamos en un punto que no es el óptimo. Para evitar esta situación,  existe otro componente en los Algoritmos Genéticos,  «marginal», pero sumamente importante, que es la mutación. De vez en cuando, un individuo modifica alguno de sus genes, saliéndose de la normalidad de sus «hermanos», y compartiendo con el resto un nuevo componente no tenido en cuenta hasta entonces, y que quizás, sea el que haga que la búsqueda de la solución «salte» de la colina a la montaña. Al igual que la cuarta ley de la innovación dice que “El desafío de la innovación está en el universo de los valores marginales«, el verdadero desafío matemático en la fortaleza de los Algoritmos Genéticos está en su capacidad de marginal de modificar valores puntuales en individuos puntuales. Y es precisamente esta capacidad la que permite un salto de rendimiento con respecto a otras técnicas, como las búsquedas aleatorias o ascenso a la colina (Hill Climbing).

Por último, y como relación con la quinta ley de la innovación, «el Tiempo«, está demostrado que los Algoritmos Genéticos encuentran soluciones en un entorno multivariable y complejo, de una forma óptima (ver la Figura abajo), precisamente, por la conjunción de los puntos explicados anteriormente.

 

Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos de una manera muy acorde con las leyes de la innovación, principalmente, porque no se basan en el conocimiento del problema para su solución, sino que se articulan en base a una serie de ciclos en los cuales una serie de individuos «idean» una solución, son evaluados, se seleccionan las soluciones más adecuadas, y por medio de un intercambio de información (conocimiento), y algunas variaciones al mismo (valores marginales), se vuelve a generar otro ciclo que comienza de nuevo la búsqueda. Este proceso es muy similar al de espiral de la innovación, que no deja de ser una evolución en ciclos de preguntas/respuestas.

La «poética de la innovación» nos habla de los principios inspiradores de la innovación, de la conceptualización de los sistemas de innovación sobre la base de unos valores, con los motores de la tecnología, el conocimiento y la cooperación, y con el impulso y dirección del liderazgo cooperativo.

Y efectivamente, la colaboración, hoy en día es un valor en alza (Web 2.0), y una parte indispensable en los procesos de gestión y de innovación. Pero la teoría de la evolución aplicada, (que es cómo podríamos llamar a los Algoritmos Genéticos), tiene un componente más, a mi parecer, muy importante, y poco implementado, tanto en la gestión de proyectos, como en otros ámbitos: el de la competencia interna (la externa es obvia, y peleamos todos los días contra ella).

¿Qué es, a mi parecer, la competencia interna?: En los Algoritmos Genéticos, en cada ciclo, se gestionan múltiples soluciones a un problema (un número variable de individuos por generación), y no existe comunicación entre los distintos individuos que la gestionan, sino que cada uno de ellos y de forma egoísta (otra vez Smith), intentan optimizar los recursos para obtener la mejor solución, sin interesarse por lo que están haciendo otros individuos a su alrededor. Eso es competencia interna, puesto que existe un componente de «prestigio social» inherente a ver quién es el que encuentra la mejor solución, quién es el mejor individuo.

Y es al finalizar el ciclo, cuando dicha información «egoísta», se comparte (se ordena por la función evaluadora), se seleccionan los mejores individuos, y bien, por selección aleatoria, por torneo, u otros métodos, se mezcla  la información genética de los mismos (por pares), para dar lugar a dos nuevos individuos, diferentes que los padres, pero enriquecidos por la colaboración.

En definitiva, se produce un intercambio de información (colaboración), después de un proceso de competición interna entre individuos (=conjuntos de genes) que buscan la mejor solución. Y esta acción redunda en el siguiente ciclo, pues en paralelo, la información se va optimizando y compartiendo.

Lo usual, es que cuando abordamos un proyecto, de cualquier naturaleza, se designe un equipo (uno sólo), que comienza a trabajar, y llega hasta el final, como bien sepa o pueda (=temple simulado). Pero, ¿no sería interesante emular a la evolución, y crear un modelo de varios equipos, que vayan ideando soluciones puntuales en cada ciclo del proyecto, de forma independiente, y que, después, las pusieran en común, se seleccionasen las mejores, se mezclasen entre ellas y volviese a comenzar el ciclo? Tendríamos un modelo en el que se trabajaría con las bases del conocimiento, la competencia, y la colaboración. Un modelo completo…con resultados efectivos… aunque quizás con mayor coste. No debemos olvidar que la Naturaleza no optimiza recursos (la polinización es un ejemplo claro de derroche), pero asegura resultados, y a la larga, quizás, esto justifique la inversión.

(más información sobre artículos relacionados en www.i3b.ibermatica.com/i3b/articulos)

Proporción Áurea, serie de Fibonacci, fractales y redes neuronales

Oct 20, 2011   //   by oa.usun   //   S.Expertos  //  7 Comments

La proporción Áurea cuenta con una larga tradición en la cultura occidental. También llamada sección áurea, proporción divina o número áureo, en realidad se trata de un principio simple, aunque al mismo tiempo enigmático, que se repite hasta el infinito en la naturaleza, el arte y la ciencia. Podemos observar la proporción áurea en la disposición de las semillas en ciertas plantas, en el árbol genealógico de las abejas, en las pirámides, en catedrales góticas, en obras artísticas del Renacimiento, en el cuerpo humano o en conchas, por mencionar solamente algunos de los casos incontables en que se observa este fenómeno.

Los matemáticos lo llaman, el número de oro, número dorado, sección áurea, razón áurea, razón dorada, media áurea, proporción áurea y divina proporción, representado por la letra griega Φ (phi) (en honor al escultor griego Fidias), es el número irracional 1,6180339 … Su historia se remonta a los cálculos que aparecen en tablillas babilónicas y continúa hoy en los fractales de nuestra era digitalizada. Sin embargo, esto solo permite describir de modo muy superficial la singularidad y belleza de esta proporción que rige la naturaleza y sirve desde hace 2.500 años de hilo conductor estético en el arte y la arquitectura.

Da Vinci hizo las ilustraciones para una disertación publicada por Luca Pacioli en 1509 titulada De Divina Proportione, quizás la referencia más temprana en la literatura a otro de sus nombres, el de «Divina Proporción». Este libro contiene los dibujos hechos por Leonardo da Vinci de los cinco sólidos platónicos. Es probable que fuera Leonardo quien diera por primera vez el nombre de sectio áurea.

Los artistas de Renacimiento utilizaron la sección áurea en múltiples ocasiones tanto en pintura, escultura como arquitectura para lograr el equilibrio y la belleza. Leonardo da Vinci, por ejemplo, la utilizó para definir todas las proporciones fundamentales en su pintura La última cena, desde las dimensiones de la mesa, hasta la disposición de Cristo y los discípulos sentados, así como las proporciones de las paredes y ventanas al fondo.

Leonardo da Vinci, en su cuadro dela Gioconda(o Mona Lisa) utilizó rectángulos áureos para plasmar el rostro de Mona Lisa. Se pueden localizar muchos detalles de su rostro, empezando porque el mismo rostro se encuadra en un rectángulo áureo.

La sección áurea en el arte:

Relaciones arquitectónicas en las Pirámides de Egipto.

La relación entre las partes, el techo y las columnas del Partenón, en Atenas (s. V a. C.).

En los violines, la ubicación de las efes (los “oídos”, u orificios en la tapa) se relaciona con el número áureo.

El número áureo aparece en las relaciones entre altura y ancho de los objetos y personas que aparecen en las obras de Miguel Ángel, Durero y Da Vinci, entre otros.

Las relaciones entre articulaciones en el hombre de Vitruvio y en otras obras de Leonardo da Vinci.

En las estructuras formales de las sonatas de Mozart, en la Quinta Sinfonía de Beethoven, en obras de Schubert y Debussý (estos compositores probablemente compusieron estas relaciones de manera inconsciente, basándose en equilibrios de masas sonoras).

Arte Póvera, movimiento artístico italiano de los años 1960, muchas de cuyas obras están basadas en esta sucesión de Fibonacci.

En la cinta de Darren Aronofsky Pi, el orden del caos el personaje central, Max Cohen, explica la relación que hay entre los números de Fibonacci y la sección áurea, aunque denominándola incorrectamente como Theta (θ) en vez de phi (Φ).

Si se indaga más en los detalles, y según el propio Leonardo de Pisa Fibonacci, en su Libro de los ábacos, la secuencia puede ayudar a calcular casi perfectamente el número de pares de conejos n meses después de que una primera pareja comienza a reproducirse (suponiendo que los conejos se empiezan a reproducir cuando tienen dos meses de edad).

La relación entre la cantidad de abejas macho y abejas hembra en un panal.

La relación entre la distancia entre las espiras del interior espiralado de cualquier caracol (no sólo del nautilus).

La relación entre los lados de un pentáculo.

La relación entre los lados de un pentágono.

La disposición de los pétalos de las flores (el papel del número áureo en la botánica recibe el nombre de Ley de Ludwig).

La distribución de las hojas en un tallo.

La relación entre las nervaduras de las hojas de los árboles.

La relación entre el grosor de las ramas principales y el tronco, o entre las ramas principales y las secundarias (el grosor de una equivale a Φ tomando como unidad la rama superior).

La distancia entre las espirales de una piña.

Los patrones matemáticos dirigen muchas formas de la naturaleza, hay numerosos ejemplos de sistemas en forma de fractales, sucesiones de Fibonacci, patrones que siguen el número áureo y que dan lugar a formas muy bellas.

En 1654 Pascal y Fermat elaboraron su teoría de la probabilidad y así nació el cálculo de probabilidades como nueva rama de la matemática. Pascal pasó mucho tiempo estudiando el triángulo que ahora se denomina “triangulo de Pascal” y que constituye la base de determinadas propiedades peculiares de la probabilidad. Pascal no era consciente de que en el triangulo aparecen los números de Fibonacci.

A lo largo de los siglos, la ciencia matemática ha creado con los números un sistema destinado a descifrar el caos del mundo y a ordenarlo, captando datos empíricos sobre el universo y la propia humanidad.

La Anatomía de los humanos se basa en una relación Phi exacta, así vemos que:

– La relación entre la altura de un ser humano y la altura de su ombligo.

– La relación entre la distancia del hombro a los dedos y la distancia del codo a los dedos.

– La relación entre la altura de la cadera y la altura de la rodilla.

– La relación entre el primer hueso de los dedos (metacarpiano) y la primera falange, o entre la primera y la segunda, o entre la segunda y la tercera, si dividimos todo es phi.

– La relación entre el diámetro de la boca y el de la nariz.

– Es phi la relación entre el diámetro externo de los ojos y la línea inter-pupilar

– Cuando la tráquea se divide en sus bronquios, si se mide el diámetro de los bronquios por el de la tráquea se obtiene phi, o el de la aorta con sus dos ramas terminales (ilíacas primitivas).

– Está comprobado que la mayor cantidad de números phi en el cuerpo y el rostro hacen que la mayoría de las personas reconozcan a esos individuos como proporcionados y son considerados como canon de belleza.

El siguiente vídeo es muy recomendable: Nature by Numbers

¿Pero que tiene que ver esta serie con la Inteligencia Artificial? 

En principio, parecería que nada, pero ahondando un poco, existen ciertas relaciones. Por ejemplo, en estudios de comportamiento en Bolsa, se utiliza la serie Fibonacci como uno de los pilares en la predicción de patrones de comportamiento humanos y de series temporales en la bolsa.  ¿Cómo se hace? Pues, básicamente, superponiendo a las seres bursátiles una foto de la espiral de fibonacci, y aquellos puntos en los que se cruzan, son puntos sensibles de analizar con la hipótesis que son puntos de inflexión sobre la misma, que los patrones se repiten en dichos puntos.

En los años 30, después de la gran depresión americana, Ralph Nelson Elliott descubrió que la situación anímica de una gran cantidad de operadores afectaba al precio de los valores. Por medio del análisis de patrones llego a la conclusión de que cada patrón era parte de otro patrón o molde superior, el cual estaba dividido en patrones inferiores. En el grafico siguiente vemos en patrón básico de una onda de Elliot.

Como vemos en el gráfico y como postula Elliott en su teoría, los valores se mueven en cinco patrones u ondas en la misma dirección que la tendencia principal, y en tres ondas en la dirección contraria a la tendencia principal. Las primeras ondas se denominan impulsivas, y las segundas correctivas. Este patrón de ocho ondas corresponde a un patrón superior, y cada onda de este patrón contiene a su vez ocho ondas. Para ver mejor este fenómeno observemos el siguiente grafico:

En él se pueden observar como hay dos ondas principales (1 y 2), que a su vez están compuestas por ocho ondas más ((1),(2),(3),(4),(5),(A),(B),(C)). En estas ondas podemos ver el modelo anterior compuesto por 5 ondas impulsivas (alcistas) y tres ondas correctivas (bajistas).En total se subdividen en 34 ondas.

Si intentamos buscar una relación entre los números de Fibonacci comprobaremos que la proporción se acerca a 1,618, o a lo que es lo mismo, su inverso 0,618. Cuanto más alto sean los números más se acercarán a esta proporción. (http://www.negomobile.es/sites/default/files/data/proyectos/GESCAVAL/DOC_Gescaval_IA.pdf)

Pero además, existen otras aplicaciones, como las búsquedas de soluciones. En post anteriores, hamos hablado de Algoritmos Genéticos, que, al final, no son más que algoritmos avanzados de búsquedas con el objetivo de minimizar los reultados engañosos o «mínimos locales».

La solución a un problema se puede representar como la búsqueda de un cierto punto en un espacio de dos simensiones con muchos puntos, y normalmente, las búsquedas lineales, lo que hacen es recorrer punto por punto hasta encontrar uno adecuado. Pero, y si,  en vez de buscar en base a líneas, ¿buscamos en base a espirales? Pues encontraremos en un menor lapso de tiempo los puntos adecuados, ya que nos movemos por el espacio bidimensional de una forma ordenada pero con patrones extendidos. En técnicas de búsqueda de personas u objetos perdidos, es lo que se denomina búsqueda compacta. ¿Por qué no aplicarlo a las búsqueda de soluciones en entornos digitales?

Pero además, en el departamento de IA de Ibermática, estamos convencidos de que la representación del conocimiento sigue este tipo de patrones, como una parte más de un conjunto universal de estructuras y estamos trabajando en demostrar que sistemas basados en estas métricas mejoran los procedimientos actuales de resolución de procesos en distintos contextos.

Un ejemplo, el cerebro. Podemos relacionar la sucesión de números de Fibonacci con las neuronas cerebrales:

“Si hace 15 años le hubiéramos preguntado a un neurocientífico cómo se comunican las neuronas de nuestro cerebro nos habría respondido: Un impulso eléctrico viaja a lo largo de la neurona, y cuando llega a su final libera señales químicas para comunicarse con la siguiente.  Revolución: añadid las ondas cerebrales como una nueva manera de coordinar a distancia diferentes partes del cerebro.”

(http://lacomunidad.elpais.com/apuntes-cientificos-desde-el-mit/2010/10/16/tus-neuronas-se-comunican-con-senales-electricas-quimicas-y)

Donde la proporción de ondas theta y gamma sigue secuencias de la serie de Fibonacci usada en la proporción áurea.

Pero además, hasta ahora, no se comprendía porqué, el cerebro, y sus estrucuturas naturales, eran capaces de procesar tanta información en tan poco tiempo, con una velocidad bastante inferior a la de los procesadores digitales actuales.  El cerebro es paralelo por completo, con gran cantidad de elementos procesadores (en torno a 10exp12) que están altamente interconectados (hasta 10.000 conexiones por neurona). Sin embargo, el tiempo de procesamiento es lento – de mili segundos. Ademas, existen organismos unicelulares, como el Protozoo Paramecium, que nadan, encuentran comida, se relacionan aprenden y recuerdan sin necesidad de sinapsis. (Sherrington, 1957).

Entonces, ¿cómo es posible que se den razonamientos, y en tan poco tiempo?

Recientemente, se ha descubierto que, además de la sinapsis y las estructuras neuronales,  (las que, por cierto, no pueden ser tan estructuradas con las artificiales, pero de eso hablaré en otro «post»),  existen unas estructuras denominadas «microtubos», que, al parecer, regulan el comportamiento celular, de los protozoos e incluso de la sinapsis neuronal.  (Hameroff y Watt, 1982; Hameroff, 1987)

Es decir, cada neurona contiene una estructura «microtubular» compuesta por polímeros «autoensamblados»  en base a la proteina tubulina, formando cilindros con celosías hexagonales en las que se cruzan los filamentos emparejados según la serie de Fibonacci, en simetría helicoidal.  Estas estructuras se convierten en «automatas moleculares» , de la siguiente forma:

10 tubulinas en cada neurona oscilando en un rango de  10valores por segundo (por ejemplo, Pokorny 8 MHz) ofrece una capacidad de información en el nivel de los microtúbulos de 1015 operaciones por segundo por cada neurona. Esta capacidad de proceso en una única célula es similar a las estimaciones para el procesamiento de la información a nivel de las neuronas y las sinapsis, pero para todo el cerebro (1011 neuronas, sinapsis por neurona 10, 10transmisiones por sinapsis por segundo =  1016 operaciones por segundo). La capacidad total del cerebro cuando se toman al nivel de los microtúbulos (en 1011 Neuronas) podrían ser potencialmente 1026 operaciones por segundo.

Estas estructuras , dentro de cada neurona,  son capaces de modificar su «mapa interno» en base a los «inputs» de otras neuronas, convirtiendo de repente a cada una de estas neuronas, en un principio, sencillas, en un potente computador cuasi-cuántico, y explicando de esta forma, la rapidez del procesamiento cerebral. Y la estructura que «almacena» cada uno de los n-estados posibles es una jerarquía en forma de hélice de Fibonacci. Interesante…..

A pesar de disponer de herramientas y lenguajes de programación diseñados expresamente para el desarrollo de máquinas inteligentes, existe un enorme problema que limita los resultados que se pueden obtener: estas máquinas se implementan sobre computadoras basadas en la filosofía de Von Neumann, y que se apoyan en una descripción secuencial del proceso de tratamiento de la información. Si bien el desarrollo de estas computadoras es espectacular, no deja de seguir la línea antes expuesta: una máquina que es capaz de realizar tareas mecánicas de forma increíblemente rápida, como por ejemplo cálculo, ordenación o control, pero incapaz de obtener resultados aceptables cuando se trata de tareas como reconocimiento de formas, voz, etc.

Quizás, el futuro de la nuevas máquinas de aprendizaje pasen por imitar a la naturaleza, comenzando por sus propias estructuras físicas….

Oscar Alonso / Aitor Moreno

Arte e Inteligencia Artificial

Oct 3, 2011   //   by oa.usun   //   S.Expertos  //  2 Comments

Durante los últimos años se ha venido observando que existen cada vez más proyectos artísticos que han sido desarrollados con medios tecnológicos que ofrecen planteamientos innovadores a la investigación de la vida artificial.

Pueden tratarse de proyectos que se basan en sistemas que emulan, imitan o especulan sobre la noción de vida a través de las investigaciones y las tecnologías actuales. Estos sistemas pueden presentar atributos de agencia y autonomía, que muestren un comportamiento propio, que sean dinámicos, reaccionen a su entorno y evolucionen, y que cuestionen las fronteras entre lo vivo y lo no vivo, entre la vida sintética y la vida orgánica.

Son proyectos interdisciplinares que responden a los nuevos desarrollos en Vida Artificial. Por medio de estrategias formales que desafían los límites entre las prácticas existentes, y que ofrecen nuevos modos de pensar acerca de aquello que entendemos por vida.

Algunos ejemplos son:

GENESIS del artista brasileño Eduardo Kac, donde una criatura de vida artificial, en este caso una bacteria que, cuando se ilumina, emite una luz ultravioleta. Dentro de este organismo el artista ha insertado un fragmento de ADN cuya secuencia es una traducción del pasaje de la Biblia en el que Dios concede al hombre el control sobre la naturaleza. El mutante que resulta es a continuación presentado en una caja de Petri, como si se tratara de una reliquia sagrada : La palabra de Dios hecha carne. Genesis es una obra compleja y conceptualmente difícil que juega con nuestro miedo hacia el poder de la biotecnología, hacia el peligro que supone para nuestra propia biología el cambio en la relación de control que tenemos con la naturaleza. Pero también apunta a una alternativa, dado que el artísta hace rambién posible que el público utilice Internet para inducir mutaciones en la minuciosa ingeniería genética de la bacteria. La ilusión del control biotecnológico nunca es absoluto.

AUTOPOIESIS, del artista interdisciplinar Ken Rinaldo y que está compuesta por quince esculturas robóticas construidas con ramas de vid. El conjunto responde a la presencia del observador con movimientos y sonidos mediante sensores inteligentes que detectan la ubicación del espectador. El intercambio de datos entre las quince esculturas robóticas crea un comportamiento colectivo en constante evolución, en la obra y espectador interactúan de manera recíproca. El interna y la evolución del sistema contribuyen a una poderosa estética escultórica en la que el espectador afecta el comportamiento del conjunto y viceversa.

EDEN, del artista electrónico Jon McCormack, es un ecosistema artificial interactivo y autogenerado. Utilizando el modelo de autómata celular de vida artificial, es ecosistema de criaturas en constante evolución tiene características similares a las de un entorno real. Las criaturas buscan alimento, se enfrentan a depredadores y se reproducen entre sí. Simultáneamente se mueven a través del entorno virtual transmitiendo y escuchando sus sonidos mutuos, y generando un paisaje sonoro que escuchamos mientras presenciamos la instalación. La supervivencia del mundo virtual depende de la presencia de la gente en la instalación, ya que sus movimientos alimentan a las criaturas. El mundo artificial se proyecta sobre dos pantallas translúcidas en forma de “X”. Esta original configuración crea trasparencias y efectos de profundidad que enriquecen la lectura de la obra. Eden ilustra las propiedades emergentes y naturaleza abierta de sistemas de vida artificial.

Algoritmos Genéticos: Búsqueda de soluciones en «paisajes» adaptativos complejos

Sep 5, 2011   //   by wpuser   //   S.Expertos  //  4 Comments

 

Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos (NP completo) en base a la teoría evolutiva de Darwin, y su esencia y funcionamiento es muy sencillo:

darwin_game

darwin_game
  • Se generan una serie de individuos al azar, cada uno de los cuales, es una solución al problema.
  • Una función evaluadora «puntúa» a cada individuo, según un criterio (en este caso, el espacio libre que queda).
  • Se seleccionan los mejores individuos.
  • Se emparejan de forma selectiva los individuos seleccionados: Así, obtenemos una segunda generación de nuevos individuos (=soluciones), con las características (=genes) de los mejores «padres» de la solución anterior.
  • Se introduce cierto ruido, (para evitar mínimos locales), en forma de mutaciones, es decir, en este caso, modificando las características de los genes de algún individuo.
Los Algoritmos Genéticos son un método de encontrar soluciones a problemas complejos de una manera muy de acorde con las leyes naturales, principalmente, porque no se basan en el conocimiento del problema para su solución, sino que se articulan en base a una serie de ciclos en los cuales una serie de individuos «idean» una solución, son evaluados, se seleccionan las soluciones más adecuadas, y por medio de un intercambio de información (conocimiento), y algunas variaciones al mismo (valores marginales), se vuelve a generar otro ciclo que comienza de nuevo la búsqueda. Es decir, que una vez construida un algoritmo genético, éste sirve para cualquier tipo de problema, sólo hay que modificar la función evaluación del mismo.

ag_algoritmo

Con estos algoritmos, se consigue «navegar» por el espacio de soluciones ante un problema de una forma muy rápida, llegando de una manera muy eficiente a la solución, y además, evitando mínimos locales.

Un típico ejemplo es la selección de la «mejor» ruta del viajante, como se ve en el ejemplo de la siguiente figura:

Pero lo verdaderamente interesante de este método de búsqueda es lo siguiente:

□        El sistema no tiene implementada en su lógica de búsqueda la solución del problema.

Es decir, el sistema no busca una solución en base al conocimiento del problema, de hecho, ni siquiera conoce el problema, sólo, genera individuos al azar, y luego los evalúa… Pero no se implementa en ningún lugar qué es lo que se quiere conseguir.

□        Los resultados no son previsibles, no es un procedimiento «guiado».

Al no existir ninguna restricción sobre cuál es el objetivo, el sistema intenta converger hasta llegar al mejor o mejores individuos, pero el resultado puede ser incompresible en contra de un método clásico, pero mejorar los resultados. Un ejemplo clásico suele ser la configuración de antenas en función de su entorno electromagnético. Como se ve en la figura, la forma de la antena es extraña, pero es la mejor de las soluciones, incluidas las determinadas de forma empírica.

Diseños industriales en base a AG.

Y precisamente, esta forma de dar solución a problemas de manera no guiada, sino determinada por la adaptación de los individuos (soluciones) al entorno (solución del problema), es dónde encontramos la ventaja frente a otros métodos, precisamente por el hecho de que los resultados no son esperados o calculados por medio de un intento de modelar las soluciones al problema. Son entornos dinámicos y evolutivos.

Si los individuos, en vez de tener en sus «genes» valores, como ciudades, en el ejemplo anterior, tendrían gramáticas, los sistemas pueden generar gramáticas de forma automática, con lo que, podemos, por ejemplo, a partir de una serie de datos, puntos, coordenadas, o valores, obtener las ecuaciones que los satisfagan. En este caso, podemos generar sistemas complejos (e incluso programas), que de forma automática, satisfagan una serie de restricciones, y con un objetivo determinado. (Estos métodos se denominan Computación Evolutiva, pero la base es la misma que los Algoritmos Genéticos).

En la siguiente figura, se puede ver un ejemplo de un solución ante una serie de puntos. (Una buena forma de determinar la correlación de las ecuaciones sobre las nubes de puntos es en base al coeficiente de Pearson):

 

Otro punto de interés es la unificación de dos componentes hasta ahora antagónicos en la forma de abordar problemas en «paisajes» adaptativos complejos (problemas NP-completo).

□        Por un lado, está la teoría clásica de Adam Smith, en el que prima la consecución de los objetivos.

  • Algoritmos que utilizan esta filosofía de «ataque» lo son la heurística voraz, o el método de temple simulado (simulated annealing), que no deja de ser un caso particular de Algoritmos Genéticos. En estas soluciones, un solo individuo intenta dar solución al problema moviéndose por el espacio de resoluciones.

□        Por otro lado, el equilibrio de John Nash, en el que encontramos una teoría de colaboración, y como ejemplo, encontramos la teoría de juegos, o incluso sistemas paralelos como redes neuronales o bayesianas en competición colaborativa.

Los Algoritmos Genéticos aúnan las dos vías, en un ciclo evolutivo, en el que, por una parte, se buscan soluciones en paralelo primando la consecución de un objetivo, el de minimizar el error, y por otro, al final de cada ciclo, se comparte la mejor información para comenzar un nuevo ciclo con los mejores conocimientos (nótese el plural) del ciclo anterior.

En definitiva, los AG son un método de búsqueda que tiene las siguientes ventajas:

•Trabajan con un conjunto de puntos, no con un único punto y su entorno (su técnica de búsqueda es global.).

•Utilizan operadores probabilísticos, no deterministas.

•Son intrínsecamente paralelos. Los AG tienen descendencia múltiple, pueden explorar el espacio de soluciones en múltiples direcciones a la vez.

•Se desenvuelven bien en problemas con un paisaje adaptativo complejo. Escapan de mínimos globales.

•Habilidad para manipular muchos parámetros simultáneamente.

•Los AG no saben nada de los problemas que deben resolver.

y también sus desventajas:

•Hay que definir bien la representación del problema.

•El problema de cómo escribir la función objetivo debe considerarse cuidadosamente para que se pueda alcanzar una mayor aptitud.

•Deben elegirse cuidadosamente los otros parámetros de un AG -el tamaño de la población, el ritmo de mutación y cruzamiento, el tipo y fuerza de la selección

Existe un problema típico para evaluar los algoritmos de solución de problemas complejos (el «Hello Word» de los NP-completos), que es el problema de la mochila. Existen en el mercado numerosos programas que resuelven problemas logísticos de este tipo (se puede ver una relación de los mismos en la página:

http://www.mecalux.es/navigation/event/detailinterview.jsp?idinterview=28623096).

La definición del problema es la siguiente:

“El problema de la mochila consiste en llenar una mochila con n objetos. Cada objeto i tiene un peso determinado ci siempre positivo y una utilidad o valor asociado, también positivo, bi. Se ha de considerar además que la mochila tiene una capacidad limitada P, por tanto, se han de escoger aquellos objetos xi que maximicen la utilidad de quien llena la mochila sin exceder su capacidad”.

Ahora procederemos a formular el problema de la mochila:

Maximizar [Sumatoria (bi*xi) desde i= 1 hasta n]

sujeto a: xi Є {0,1} con i =1, …, n

Sumatoria (ci*xi) desde i=1 hasta n < P

En concreto, vamo a resolver un caso particular, según el siguiente enunciado:

Tenemos 10 cajas con los siguientes pesos:

5, 7, 12, 14, 23, 4, 6, 9, 4 ,6 kilos, y un contenedor que sólo puede contener 55 kilos.

¿Cuál es la mejor distribución?

Definición de la función a maximizar:

i = {1, 2, 3, 4, 5, 6, 7, 8, 9 ,10}

bi = 1    mismo valor para todos los pesos

ci = {5, 7, 12, 14, 23, 4, 6, 9, 4 ,6}

P = 55

En la tabla adjunta, se muestra una comparativa de los resultados con distintas técnicas de búsqueda: (Por ejemplo , con Algoritmos Heurísitcos , en conctretpo Bakctraking y Teoría de Grafos y  con Solver…):

Sin embargo, si dejásemos que sólo la selección natural y el emparejamiento influyesen en la «aventura» de encontrar las mejores soluciones, estaríamos perdiendo información, y sobre todo, tendríamos un gran problema, los mínimos locales.

Un sistema de este tipo, al llegar a un mínimo local (una colina, pero no la montaña), podría estacionarse en dicha solución, y propagar los genes del mejor individuo infinitamente al resto de generaciones, es decir, a sus descendientes hasta que nos detendríamos en un punto que no es el óptimo. Otros métodos han dado solución a este problema  generando saltos, que permitan evitar las «colina», por ejemplo, el «temple simulado» (simulated annealing), pero la ventaja de los AG es que, en vez de ser un único individuo el que realiza la búsqueda, esta se realiza en paralelo por varios «agentes» a la vez.

 

minimos_locales

Los AG se están aplicando en múltiples aplicaciones, optimización, procesos industriales, interacción hombre-máquina, medicina, minería de datos….

Los problemas de optimización complejos, ya tienen un buen método de resolución, rápido y eficaz, los Algoritmos Genéticos…

En Ibermática, hemos aplicado estos métodos a aplicaciones como la optimización de colocación de piezas en superficies 2D, dentro de entornos industriales, o la selecciones de los mejores métodos de análisis en entornos de datos muy variables y complejos, de forma automática.

GuiDes en Fraude Social

Jul 19, 2011   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en GuiDes en Fraude Social

GuiDes es una plataforma de Apoyo a la Decisión en Tiempo Real, que integra las más novedosas técnicas en tratamiento de información para extraer conocimiento inferido, de forma que permita predecir comportamientos a futuro, y en base a estas clasificaciones, segmentaciones y prospectivas, «alertar» a los usuarios expertos sobre en qué parte del total de la información tienen que «enfocar» los esfuerzos de análisis avanzado. De esta forma, se cambia el paradigma de utilizar el 80% del tiempo en revisar el 100% de la información sin conocer «a priori», dónde esta información es válida, y obteniendo un ROI de la extracción de tan sólo el 20% de las alerta importantes, autilizar el 20% del tiempo en analizar el 80% del las alertas realmente relevantes.

En el contexto del Fraude Social, Ibermática se ha unido a SAS y a Deneb para desarrollar una plataforma global de ayuda a la gestión de aquellos posibles «círculos» de riesgo en políticas sociales, en base a la integración de los sistemas actuales de las Administraciones Públicas y Empresas que deseen conocer cuál es su estado actual con respecto al Fraude interno y externo, así como suministrarles una Herramienta Global que satisfaga las necesidades de detección precoz del fraude, así como de integración del conocimiento experto disperso en la Organización en un repositorio único, común y compartido.

 

 

Los objetivos de GuiDes Fraude Social son los siguientes:

•Ayuda a los técnicos en la instrumentación de reglas para el seguimiento y control de la concesión de ayudas sociales.
•Detección de anomalías en las pautas de comportamiento.
•Sistema de alertas sobre casos inciertos.
•Sistema de representación gráfica de zonas con probabilidad alta de fraude.
•Plataforma de integración de información y seguimiento de la correcta utilización de las ayudas.
•Aprendizaje automático ante nuevos casos de fraude.
GuiDes Fraude Social está configurado con los siguiente módulos:
  • Integración de fuentes de información (ETL).
  • Modelo automático de detección de fraude
  • Control de Padrón.
  • Detección de anomalías en las pautas de comportamiento.
  • Sistema de alertas sobre casos inciertos.
  • Sistema de representación gráfica de zonas con probabilidad alta de fraude.
  • Aprendizaje automático ante nuevos casos de fraude.
  • Análisis de Redes Sociales
  • Módulo de aprobación de reglas e introducción de conocimiento técnico en el sistema.
  • Motor de reglas y ejecución de los controles.
  • Representación gráfica de la información y gestión de alertas

Estado del Arte.

En la década de los 80, las soluciones tecnológicas al respecto de la detección y control del fraude se basaban en la implementación de reglas programadas y técnicas de gestión de alertas que identificaban patrones específicos buscados.

En la década de los 90, se comenzaron aplicar nuevas tecnologías, tales como las búsquedas den bases de datos, la combinación de los datos, informes que reportaban eventos que superaban umbrales determinados de alertas, y básicamente, la consulta reactiva «a posteriori» en grandes volúmenes de datos con el objetivo de encontrar discrepancias (anomalías) sobre la normalidad.

Hoy en día, los rápidos avances en la tecnología, permiten construir modelos predictivos basados en comparativas estadísticas de patrones de actuación, así como el análisis de redes sociales que muestran, de forma gráfica y geoposicionada, vínculos entre agentes y su posible estado fraudulento. Además, los sistemas tienen una gran capacidad de aprendizaje sobre las actuaciones generadas en base a las alertas detectadas.

 

 

 

Integración de fuentes de información

•Acceso a cualquier tipo de información tanto estructurada como no estructurada. Aplicación de técnicas de calidad de datos

 •Asociatividad, “matching” de valores “similares”, completitud de registros…

•Posibilidad de integrar información de reglas de fraude de otros sistemas de fraude ya existentes

•Minería de Textos y Web

 

 

Cuadro de Mando de Alertas

 

•Alertas ordenadas por severidad / probabilidad de fraude

•Generadas en tiempo real mediante reglas, detección analítica de valores anómalos y modelos predictivos

•Alertas para personas, empresas y redes de empresas

•Asignación de alertas a personas

Gestión de Reglas

Espacio Colaborativo de Conocimiento Experto

•Plataforma del conocimiento de técnicos e inspectores.

•Una fuente de datos única y fiable

•Entorno colaborativo entre técnicos

Modelos predictivos

•Situaciones anómalas

•Relaciones no evidentes

•Comportamientos sospechosos.

•Minería de datos.

Detección de Patrones y Correlación de Eventos de Forma Efectiva

 •Clasifican la información en grados de pertenencia o no a un determinado patrón de riesgo de fraude.

A partir de un grupo de hechos conocidos (eventos) se genera un grupo de reglas (axiomas)

•Empresas o individuos que se desvían de los comportamientos de su segmento, en cuanto a horas extras declaradas, número de empleados dados de alta, incrementos injustificados de bases de cotización

•Búsqueda de variables ocultas que han determinado comportamientos fraudulentos en el pasado: altas-bajas de trabajadores, ceses de actividad, falsos autónomos, fraude en prestaciones por desempleo…

 

Representación de la información

•Acceso integrado desde la alerta al detalle de los casos sospechosos

 •Visión conjunta de indicadores de fraude detectados automáticamente

•Monitorización de métricas, a través de un cuadro de mando, para determinar la efectividad y eficiencia de las medidas antifraude

 

 

Detección de fraudes del padrón

Por posicionamiento de direcciones en la cartografía catastral de los ayuntamientos.

 

Análisis de Relaciones – Sugerencia de Plan de inspección (Personas -> Empresas -> Contactos)

 

 

En definitiva, Guides Fraude Social, es una herramienta completa que permite la gestión avanzada en la detección de fraude social, basándose en las últimas tecnologías de analítica, movilidad, redes sociales y geoposición, integrando los sistemas propietarios de los clientes en un sistema de decisión en tiempo real automático.

 

 

Resumen:

 Detección y generación de alertas gracias a una aplicación combinada de métodos.

Gestión e integración de datos procedentes de múltiples fuentes, tanto externas como internas.

Análisis de redes sociales para poder ir más allá del análisis de entidades aisladas.

La gestión de casos integrada proporciona un entorno unificado de investigación.

Mantenimiento Predictivo en Procesos Industriales. Solución vertical Ibermática – SAS

Jul 11, 2011   //   by wpuser   //   S.Expertos  //  1 Comment

El Mantenimiento Predictivo, a diferencia del Preventivo, que asume que los equipos, máquinas e instalaciones siguen cierta clase de comportamiento estadístico, verifica muy de cerca la operación de cada máquina en su entorno real. Esto implica un seguimiento del desgaste de piezas o componentes de equipos críticos a través del análisis de síntomas y evaluación estadística extrapolando ese comportamiento al futuro para determinar el punto exacto de cambio. Con los resultados de inspecciones, medidas y controles del nivel de condición de los equipos, y cotejando esta información con un histórico de incidencias, es posible anticipar averías y evitar roturas y paradas de producción. Ambos tipos de mantenimiento se complementan a la perfección, pues el Predictivo permite decidir cuándo hacer el Preventivo.

El Mantenimiento Predictivo es, por tanto, un sistema de control inteligente que permite advertir la tendencia a entrar en riesgo de un bien mediante el monitoreo de condición, esto es, la elección, medición y seguimiento de los parámetros relevantes que representan el buen funcionamiento de la máquina, su contexto, los históricos de incidencias, la ubicación, la época del año, y todas aquellas variables, que, de forma automática, el sistema detecta como «influyentes» con una posible incidencia futura, sin tener que realizar estudios previos al respecto.

 

Ibermática, junto a SAS, ha desarrollado un sistema vertical de Mantenimiento Predictivo integrando nuestro conocimiento de los procesos de mantenimiento de SAP con el motor de inteligencia estadística y predictiva de SAS. Esta colaboración nos permite ofrecerle la más avanzada solución integral para el tratamiento de los procesos de Mantenimiento Industrial. Si desea conocer las ventajas que aporta esta tecnología, contáctenos.

La Inteligencia Artificial se ha convertido en un componente básico en los procesos de negocio

Jul 5, 2011   //   by wpuser   //   S.Expertos  //  1 Comment

Estamos en un momento en el que las empresas cada vez demandan más control y conocimiento sobre toda la información que les compete, sobre todo aquella que está en formato no estructurado (actas, correos, documentación, webs, etc…), y que cada vez, debido a sus volúmenes, es más intratable. Sin embargo, en los ambientes académicos y universitarios (así como en las administraciones anglosajonas, entornos económicos, militares y de seguridad), las herramientas que permiten tratar dicha información ha alcanzado una edad muy madura. Está ocurriendo algo similar que recuerda a la evolución del Business Intelligence en las empresas. No hace demasiados años, mientras en el mundo de la información en general se destinaban ingentes esfuerzos en obtener informes estáticos que cambiaban cada pocos días en función de las necesidades del cliente (¿quién no lo ha vivido?), se empezaba a hablar de cubos, dimensiones, medidas, DatawareHouse, cosas que sonaban más o menos a chino. Y aquellos que supieron estar atentos, (leáse Cognos), fueron los que se llevaron el gato al agua. Hoy en día, ¿qué empresa que presuma de tener un buen sistema de gestión prescinde de sus cubitos? Pues lo mismo está empezando a ocurrir con el DataMining y las búsquedas semánticas. Y los primeros indicadores ya está ahí, Oracle publicita su producto OracleDataMining, para detectar relaciones entre sus datos y análisis de predicción, SAP ha comprado a BusinessObject Enterprise para liderar este movimiento, Microsoft incorpora Datamining en SQL Server, IBM ha comprado a SPSS Clementine para lo mismo, Google ha desarrollado sus propias herramientas para detectar quién sabe qué en la red, y no sigo contando. Es decir, que auguro que dentro de cinco años, aquel que no tenga algo de Datamining en su sistema, (que no deja de ser una explotación inteligente del DatawareHouse, pero automática), no será nadie en sistemas de gestión.

En Ibermática llevamos años tratando grandes volúmenes de datos de forma automatizada en base a algoritmos estadísticos, de aprendizaje supervisado y no supervisado, de forma que las «reglas de negocio» extraidas en base a estos estudios automatizados, se integran con sitemas expertos que son capaces de analizar en tiempo real nuevos volúmenes de información, detectando:

– Anomalías sobre la información

– Relaciones no evidentes entre los datos

– Perfiles de agrupamientos de atributos que defininen «de forma autónoma» agentes dentro del negocio.

– Predicciones sobre lo que va a ocurrir en el futuro, en base a los datos actuales y los históricos tratados.

Estas funcionalidades se pueden aplicar en todos los contextos empresariales, en industria para optimizar las planificacione sy los mantenimientos (mantenimientos predictivos), en medicina (los humanos somos máquinas complejas), en banca, seguros, y todo lo que se nos demande.

Red Neuronal

Red Neuronal

La Inteligencia Artificial (IA) se está imponiendo en diversas disciplinas tecnológicas y forma parte del software, la minería de datos o los asistentes virtuales, sin que tenga una visibilidad clara para el usuario. De ahí reside la necesidad de conectar el mundo de la investigación y la universidad con el de la empresa, como postula Ibermática. Su relevancia en el mundo corporativo es crucial como elemento integrado en áreas como el marketing, la gestión de la información o la prospección de redes sociales.

El estado actual de la Inteligencia Artificial (IA) y su aplicación en el negocio fueron los ejes centrales del encuentro organizado por Computing, en colaboración con Ibermática, y en la que participaron expertos en la materia tanto del entorno empresarial como universitario y de I+D. La IA es una materia que se puede definir como una rama de la Computación dedicada al desarrollo de agentes racionales no vivos que buscan emular el comportamiento humano a través de algoritmos capaces de obtener respuesta de datos de cualquier procedencia. Una ciencia por tanto que para el común de los mortales parece vivir en el plano de la ciencia ficción y alejada del mundo real, pero que sin embargo está más incorporada al entorno cotidiano de lo que puede parecer. Así lo constata Aitor Moreno de Leceta, responsable de Sistemas Inteligentes de Control y Gestión de Ibermática, “la IA se está imponiendo en casi todas las disciplinas informáticas. Las grandes empresas están integrando en sus paquetes minería de datos, reconocimiento de voz, asistentes virtuales, algoritmos genéticos para racionalizar procesos, reconocimiento de caracteres…”. Y es que aunque el usuario no lo ve, según Moreno, “utiliza buscadores, reconocimiento de matrículas, radares, agentes virtuales, semántica en redes virtuales, voz para acceso de minusvalías”, lo cual indica que se va imponiendo de forma silenciosa.

Desde Ibermática también se aprecia que existen muchas aplicaciones interesantes desarrolladas en centros y universidades pero que son difíciles de conectar con el tejido empresarial, “bien porque el mercado tiene las demandas pero no conoce estas soluciones, bien porque el ámbito universitario está más preocupado por publicar y tener sus índices de referencias, por lo que no se avanza más allá de la investigación básica y no llegan a la parte industrial”.

Páginas:«123»