Browsing articles in "S.Expertos"

Redes Neuronales, como herramienta para la creación artística

Ago 16, 2017   //   by oa.usun   //   S.Expertos  //  No Comments

Un ordenador solitario está ocupado procesando imágenes y la máquina no sabe que son esas imágenes pero puede analizarlas hasta el último pixel, extraer sus valores y generar nuevas combinaciones que den forma a imágenes siniestros, a la vez que familiares o insólitos.

Desde 2015, el interés en la IA ha crecido con su utilización por parte de las grandes empresas tecnológicas, para mejorar sus productos y la extracción de la información útil a partir de una enorme cantidad de datos que se generan día a día por los usuarios en todo el mundo.

En julio de ese mismo año, Google lanzó su programa de visión artificial basado en redes neuronales artificiales, llamado DeepDream, sugiriendo la posibilidad de que un ordenador, es decir, una máquina, produzca alucinaciones lo que conecta directamente con el surrealismo.

redes

De The original uploader was Gengiskanhg de Wikipedia en español – Transferido desde es.wikipedia a Commons., CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2175731

 

nubes

De Alexander Mordvintsev, Christopher Olah, Mike Tyka – http://googleresearch.blogspot.cl/2015/06/inceptionism-going-deeper-into-neural.html, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=45628014

 

En el post Inceptionism: profundizando en redes neuronales de Google Research Blog, se explica que esta técnica da un sentido cualitativo del nivel de abstracción que una determinada capa ha logrado en su comprensión de las imágenes. Esta técnica la llaman “Inceptionism” en referencia a la arquitectura neural de red utilizada.

La aplicación de estas técnicas también permiten transferir el estilo de un artista famoso a las imágenes fotográficas:

trimagen

/https://deepart.io#

 

En el año 2016 apareció en Internet esta noticia: Una inteligencia artificial pinta un nuevo cuadro de Rembrandt tras estudiar toda su obra.

rembrant

El próximo Rembrandt

 

Se trata de un proyecto conjunto entre ING, Microsoft, la Universidad Técnica de Delft y los museos Mauritshuis y Rembrandthuis. Donde han participado historiadores del arte, científicos e ingenieros que dedicaron 18 meses a enseñar a un ordenador a ser El Próximo Rembrandt. El resultado es que mediante la aplicación de inteligencia artificial y una impresora 3D han obtenido un cuadro original que imita a la perfección los trazos y el estilo del artista más importante de los Países Bajos.

Se han basado en 168.263 fragmentos pictóricos de las 346 pinturas del autor. Combinando un algoritmo de reconocimiento facial con un software de aprendizaje profundo, los desarrolladores consiguieron identificar y clasificar los patrones más comunes de la obra de Rembrandt, desde su composición hasta las proporciones de los rasgos faciales. La inteligencia artificial aprendió a pintar una nariz o una boca como lo haría Rembrandt. Según el análisis estadístico, el cuadro debía ser un retrato de un hombre caucásico, de entre 30 y 40 años, con vello facial, ropa oscura, cuello blanco, sombrero y la cara girada hacia la derecha.

Para conseguir la imitación perfecta, el equipo creó además un mapa de alturas para el cuadro basado en varios escáneres tridimensionales de la obra de Rembrandt. El Próximo Rembrandt se imprimió en 3D con más de 149 millones de píxeles y en varias capas para parecer una pintura al óleo.

Estas técnicas inspiraron al artista Grégory Chatonsky a crear la denominación “Imaginación Artificial” o ImA, donde transciende la mera imitación y que podría llegar a suplantar la habilidad artística de un ser humano, confirmando que las máquinas podrían en un futuro que cada vez se adivina más cercano reemplazar estos aspectos de un ser humano.

chatonsky

ImA de Grégory Chatonsky

 

Cada vez más se están utilizando todas estas técnicas, que el siglo XXI ofrece como herramientas a los artistas, para experimentar en su trabajo creativo y que se sustituirán a los viejos pinceles de los siglos anteriores, antes de que se cumpla el vaticinio de Grégory Chatonsky.

HENUFOOD: Desarrollo de nuevas metodologías y tecnologías emergentes para la investigación bionutricional

Feb 20, 2014   //   by oa.usun   //   S.Expertos  //  Comentarios desactivados en HENUFOOD: Desarrollo de nuevas metodologías y tecnologías emergentes para la investigación bionutricional

El objetivo principal de este proyecto ha sido desarrollar metodologías innovadoras de evidenciación de la eficacia de alimentos con propiedades de salud, con el objetivo de mejorar las condiciones saludables en la población adulta.

logo

Para alcanzar este objetivo principal, la estrategia fue apostar por metodologías innovadoras, que posibiliten:

  • Investigar en nuevos biomarcadores de exposición (biodisponibilidad) y biomarcadores de efecto (de función, de reducción de riesgo de enfermedad y de seguridad)
  • Proponer biomarcadores que puedan ser parametrizados, validados e indicativos de los procesos de interés en la mejora de la calidad de vida.

Esta apuesta estratégica ha significado el planteamiento de objetivos metodológicos concretos:

  • El desarrollo los análisis por transcriptómica, proteómica y metabolómica como herramientas de investigación con una perspectiva integrada de los procesos bioquímicos que rigen la respuesta del organismo al entorno (incluyendo la dieta), modulando la misma y repercutiendo en el efecto sobre la salud
  • Desarrollar metodologías por imagen para conseguir nuevos biomarcadores que reflejen la respuesta a estímulos sensoriales y procesos cognitivos

Para poder estudiar estos efectos, un objetivo inherente al proyecto y a la tipología de empresas que participan en el consorcio consistía en desarrollar e investigar en nuevos principios activos, extractos, ingredientes, y alimentos.

Objetivos de Ibermática dentro del marco del proyecto HENUFOOD

 El objetivo general de Ibermática en el proyecto ha sido desarrollar herramientas computacionales para el apoyo, la sustentación de evidencias, la validación de resultados y la toma de decisiones sobre los procedimientos de estudios y ensayos científicos referentes a la investigación de las propiedades beneficiosas de los alimentos y su incidencia en la salud.

Este objetivo se fundamentaba en la constatación de que no existían plataformas de apoyo a la ayuda en la gestión de trabajos de estudios científicos que cubra las necesidades de validación, sugerencia, sustentación y control de los procesos de estudio en los ambientes de ensayos científicos, y especialmente, en el entorno de la nutrición aplicada a la salud.

Las necesidades funcionales a cubrir por los objetivos tecnológicos han sido las siguientes:

  • Integrar los datos obtenidos con distintos modelos biológicos y generar conclusiones. Era necesaria una extracción de la información relevante en los datos, y relaciones no evidentes así como la selección automática de perfiles metabólicos y correlaciones entre distintos atributos.
  • Optimizar el diseño de los estudios de intervención nutricional en humanos, en base a la generación de guías de actuación y corrección “on-line” sobre los procedimientos de actuación cuando el sistema detecte resultados con baja confiabilidad, así como el desarrollo de nuevas tecnologías computacionales de evidenciación y sustentación a partir del diseño protocolizado y parametrizado de estudios de intervención en humanos.
  • Implantar Mecanismos de ayuda en la comprensión del mecanismo de acción, en base a los distintos resultados en las muestras de los ensayos en base a la aplicación de algoritmos de aprendizaje no supervisado.
  • Desarrollar Un sistema de prevención de riesgos de enfermedades en base al establecimiento de umbrales de confianza sobre los indicadores correspondientes a biomarcadores de salud o enfermedad.
  • La Aplicación de metodologías computacionales para la predicción “in silico” de efectos saludables de los nutrientes, así como la obtención estadística de las justificaciones de dichas acciones.

 logo3

Se ha desarrollado una plataforma única, que satisface las necesidades anteriores, y además, oferta un apoyo a la gestión, guiado, validación y obtención de conclusiones de los ensayos científicos, que deben pasar necesariamente por tres estadios diferentes:

  • Obtención, pre-procesado y tratamiento de los datos.
  1. Extracción de variables y atributos principales, así como indicadores de distintas fuentes externas (texto, bases de datos, imágenes, Web…).
  2. Identificación metabolitos: NIST Databases…
  •  Validación de los distintos modelos automáticos, apoyo inteligente a la toma de decisiones, y sustentación científica de los modelos validados.
  1. Comparación de perfiles y modelos (análisis multivariante)
  • Interpretación inteligente e intuitiva de los datos

Para conseguir estos objetivos Ibermática ha contado con la colaboración de BDigital, y del Hospital Universitario La Paz, que han contribuido al conocimiento básico de las relaciones nutrientes-salud.

Líneas de investigación desarrolladas por Ibermática dentro del marco del proyecto

Para cubrir los requerimientos funcionales especificados, se han establecido una serie de líneas de investigación fruto del análisis del Estado del Arte en las principales tecnologías emergentes contempladas en el proyecto:

  • Obtención, preprocesado y tratamiento de los datos de entrada al sistema.

Se ha construido la plataforma que da solución a la problemática asociada a la gestión inteligente de la información, en dos vertientes, la investigación en los métodos de obtención de la información, tanto a partir de los resultados de los indicadores obtenidos por biomarcadores, como la integración de datos no estructurados en fuentes externas (intranet, extranet, bases de datos especializadas o imágenes).

También se ha construido la plataforma que gestiona de forma inteligente los datos de los ensayos bionutricionales.

 henufood

 

Se ha mejorado el desarrollo del paradigma de la “Medicina Basada en la Evidencia”, y en la adquisición de conocimiento por vía de acceso semántico a la denominada “nube de Linked Data”, de gran relevancia científica e innovadora, además de la inclusión en la plataforma de conectores a fuentes de datos de interés relacionados con el estado del arte en bionutrición.

Se ha confortando una plataforma de agregación bibliográfica sobre la base de anotaciones en lenguaje natural, y extracción de información en base a la ontología base del sistema.

logo5

 Además, se ha implantado un sistema automático de extracción de datos relevantes en función de los datos suministrados por el conjunto de ensayos muestras, de forma que, en función de unos objetivos (dianas), se deciden qué modelos se han de aplicar a dichos datos (modelos estadísticos y de minería de datos), y cuáles son los atributos principales y multivariables que alimentan a dichos modelos. Para ello, se han ya realizando varias pruebas unitarias en una plataforma “wizard” guiada, que automatiza los procesos más complejos y especialistas dentro de la metodología CRIPS-DM de gestión de flujo de información dentro de minería de datos.

logo6

Como ayuda a la interpretación de resultados, se ha construido una plataforma de análisis visual en base a técnicas de Minería de Datos, y a un GUI (interface gráfico) que aúna ambas tecnologías en una propia, y de fácil uso por parte de usuarios especializados.

Todo el aplicativo esta integrado, de forma que las interacciones entre distintos silos de información de los diversos agentes que forman el sistema (Laboratorio, Usuarios, Gestión de Proyectos de Investigación y Ensayos Clínicos), y entre los distintos módulos, de forma que la información fluye en todos los puntos del ciclo de vida de un ensayo en forma de servicios.

  • Validación de los distintos modelos automáticos, apoyo inteligente a la toma de decisiones, y sustentación científica de los modelos validados.

En paralelo al sistema de reglas se ha generado un sistema de modelado con distintas técnicas del estado del arte, que en base a los resultados del estudio, determinan la convergencia del modelo, su nivel de confianza en base a las premisas de origen (análisis de la hipótesis nula) y además, son capaces de explicar de forma contextual las conclusiones obtenidas. Este sistema permite predecir como respondería el sistema ante la variación de los indicadores de entrada.

logo7

Un motor de reglas (sistema experto) es el encargado de ejecutar en tiempo real las reglas obtenidas, así como las incluidas manualmente por los usuarios y validadores internos, en base a un sistema muy simple de introducción de las mismas.

logo8

 El núcleo principal del sistema de decisión y control,  es una ontología propia, que permite, en base a un vocabulario común,  integrar la información relevante interna, publicitar los resultados de los ensayos, realizar un seguimiento de la vida del ensayo, y validar los procesos y datos según las normas preescritas, la calidad de los resultados, el valor de las muestras y su relación con los objetivos definidos “a priori”. Esta estructura interrelacionada es completada con los datos de los ensayos, los resultados y las investigaciones realizadas, de forma que el acceso a la misma es en base a una navegación por enlaces, y además, ciertos motores semánticos permiten inferir nuevas conclusiones sobre los datos almacenados en ella. 

logo9

  •  Interpretación de los datos.

Se ha implementado la interacción con los sistemas de minería de datos y sistemas expertos a través de preguntas directas sobre el objeto del estudio, cuáles son las variables independientes, los atributos a valorar, y sugerencias de métodos a aplicar o condiciones restrictivas a los modelos. Se trata de un lenguaje controlado que se abstrae de la base de datos y la terminología de minería de datos para permitir la interacción de alto nivel. Usamos una medida basada en el conocimiento de aspectos relevantes y subjetivos como la novedad, utilidad y comprensibilidad, que permite flexibilizar los métodos para acceder a los resultados de minería de datos, incluso en forma de preguntas en Lenguaje Natural.

logo11

Además, todos los datos de los ensayos, así como sus conclusiones a efectos de si el ensayo ha sido válido o no, se representan de forma visual, en un formato claro para aquellos investigadores que deseen “comprender” qué es lo que ha ocurrido con distintos indicadores, sin necesidad de ir a métricas estadísticas, como ANOVA, T-student, etc…

logo12

Se han integrando gráficas de visualización sobre los modelos matemáticos y frecuencias de conceptos relevantes obtenidos.

Correlación

Correlación entre Variables

Importancia de los Indicadores

Importancia de los Indicadores

Segmentación de los participantes en los ensayos

Segmentación de los participantes en los ensayos

Segmentación de los participantes en los ensayos - Diferencias

Segmentación de los participantes en los ensayos – Diferencias

 

Más información en:

Análisis avanzado de Ensayos Bionutricionales en el Congreso Internacional de Nutrición (ICN2013)
Minería de datos y Sistemas Expertos
Minería de Datos en entornos Médicos o cómo dedicar el tiempo a analizar conclusiones y no datos. Los “medichackers”.
Minería de datos sobre ontologías
Adquisición de conocimiento para poblar Ontologías
El futuro del Text Mining se llama T2k (Text to Knowledge)Tucán – Un extractor automático de información relacionada
Sistema inteligente de gestión del conocimiento de laboratorios para procesado de cultivos microbiológicos
DocThor – Un auto-catalogador de Documentos automático en función del contenido
Buscadores semánticos en medicina: Codificación CIE-9 y Medicina Basada en la Evidencia

 

i3B en el MEDICON 2013 – Un sistema experto contextual en la telemonitorización de pacientes en casa

Nov 5, 2013   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en i3B en el MEDICON 2013 – Un sistema experto contextual en la telemonitorización de pacientes en casa

Medicon 2013

El pasado 28 de septiembre, se clausuró en Sevilla el congreso médico MEDICON 2013, en el que i3B presentó el resultado final en la investigación y desarrollo de un sistema experto en el tratamiento personalizado de la información de pacientes teleasistidos (paper titulado “Advanced Medical Expert Support Tool (A-MEST): EHR-based Integration of Multiple Risk Assessment Solutions for Congestive Heart Failure Patients”), fruto de su colaboración junto con los principales agentes europeos en análisis avanzados en ambientes de salud.
Actualmente, los médicos comienzan el tratamiento, por norma general, después de que ocurra un problema, principalmente debido a la baja adopción de sistemas de apoyo a las decisiones clínicas (SADC) integrados con Historia Clínica Electrónica (HCE). El sistema propuesto en el proyecto (de nombre “Chiron”) permite a los médicos seguir la evolución de la persona antes de que ocurra un episodio médico, de forma que el tratamiento del paciente se realiza de forma proactiva en función de las tendencias estadísticas a futuro, adelantándose a las patologías.

CDSS architecture

 Las técnicas aplicadas, como herramientas de telemonitorización, facultan a los médicos para predecir los eventos que se podrían dar en un paciente, mejorar el diagnóstico y evitar visitas continuas al hospital, con el ahorro y comodidad que esto supone. “Chiron” es un paso hacia el logro de la integración del paciente mediante la incorporación de interoperabilidad semántica por medio de “arquetipos” médicos en todos los sistemas involucrados.
Se han implementado tres módulos diferentes de control que, de forma visual, permiten a los cardiólogos monitorizar el estado de salud de los pacientes, las posibles anormalidades que puedan surgir y las alertas sobre eventos críticos, todo de forma automática y desasistida.

A-MEST example

Además, i3B ha participado activamente en contextualizar la información de los pacientes en relación a las últimas publicaciones referentes a la situación personalizada de cada uno de ellos. Así, el cardiólogo puede ver en la plataforma, para ese paciente concreto, cuáles son los mejores procedimientos y tratamientos extraídos de la literatura, documentación y papers de otros centros de referencia a nivel internacional. Además, puede utilizar los arquetipos EHR para la generación automática de conclusiones en base al historial clínico del paciente, que permiten personalizar las búsquedas de manera mucho más efectiva.

La presentación en el congreso fue un éxito, realizándose numerosas preguntas y creándose bastante expectación sobre el sistema de contextualización del paciente para la búsqueda de información bibliográfica en la red basada en nuestro sistema “Search Seeker”.

Más información en:

Análisis avanzado de Ensayos Bionutricionales en el Congreso Internacional de Nutrición (ICN2013)

Oct 1, 2013   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en Análisis avanzado de Ensayos Bionutricionales en el Congreso Internacional de Nutrición (ICN2013)

ICN2013_1

Celebrado del 15 al 20 de septiembre en Granada, el Congreso Internacional de Nutrición es un evento que se celebra cada cuatro años y que, en su XX edición, ha estado conformado por ocho grandes simposios en los que se han tratado asuntos que abarcan desde el papel de la nutrición en enfermedades complejas o el impacto de la tecnología en las cualidades nutricionales, hasta aspectos de seguridad alimentaria y estudios de ciencia básica.

Ibermática, junto con el Hospital de La Paz, ha participado con la presentación de los resultados obtenidos en el proyecto Henufood (proyecto CENIT 2010-2013), en el que se analizan y desarrollan nuevas tecnologías para la identificación de alimentos con propiedades beneficiosas probadas para la salud.

ICN2013_2

Las nuevas tecnologías deben ser parte del desarrollo de la ciencia y deben ser fáciles de usar para que el investigador pueda racionalizar y optimizar su trabajo. Actualmente no existe una herramienta que cumpla con estas características en el ámbito de la alimentación, por lo que se está desarrollando una aplicación informática que incorpore todos los procesos a través de los cuales se genera el nuevo conocimiento.

Poster ICN2013 PO327

BACKGROUND AND OBJETIVES: New technologies must be part of the development of science and should be user-friendly to allow the researcher streamline and optimize their work. Currently there is no tool that meets with these characteristics in the field of nutrition, so it is being developed a computer application (CA) that incorporates all the processes through which knowledge is generated.

METHODS: The different stages of information search have been integrated into the CA: the software is able to obtain and process the information from the variables of interest to the researcher. The CA works with one or several questions simultaneously, in ordinary language, which is then translated into controlled vocabulary (MeSH, Thesaurus…) for your search in specialized databases (MEDLINE, Cochrane…). The CA organizes this information and integrates concepts of evidence-based medicine and CONSORT criteria that allow assessing the power and quality of information. At the same time this tool incorporates a system of alerts about the existence of new information on the net. The browser is also able to identify and assess related images.

 RESULTS: In the first phase of its development, the software has shown good results when it is compared with the usual practice of seeking information. The speed of finding information with CA is better, and the assessment of the quality of the information is appropriate.

 CONCLUSIONS: This new software for support of scientific research will streamline and optimize the work of the researcher in the ​​nutrition area, improving the quality of the process and the results of the search for new knowledge.

 

El Hospital Inteligente y Extendido (OSi+)

Ago 21, 2012   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en El Hospital Inteligente y Extendido (OSi+)

El Hospital Inteligente y Extendido

Proyecto innovacion OSI+ para ancianos y personas mayores usando TIC subvencionado gobierno vasco y spri

En el contexto de la sociedad actual, se puede afirmar que la población está envejecida y que además no dejan de aflorar nuevos tipos de enfermedades relacionadas con el modo de vida del mundo desarrollado. Y no sólo eso, sino que también hay que contar con los enfermos crónicos existentes, etc. Por esto, y gracias a la nueva sociedad globalizada y de las comunicaciones, las personas están demandando cada vez más nuevos servicios sanitarios más eficaces, ágiles, precisos y baratos. Dada esta situación, y sabiendo que es posible la utilización de Tecnologías de la Información y Comunicación (TIC) para paliar esta demanda, se hace necesaria una solución inmediata que responda a las necesidades del mercado actual

Para poder concluir en los máximos beneficios de OSI+,destacaremos las mayores fortalezas y oportunidades del proyecto, así como sus debilidades y amenazas. Este esquema proporciona una información muy útil a la hora de reconocer el producto y la innovación en el sector sanitario.

 FORTALEZAS (DE MERCADO) 

  •  Creciente demanda de la atención sanitaria actualmente.
  •  Cambio reciente entre la población en cuanto a la demanda de la atención sanitaria.
  • Aumento de la esperanza de vida de la población (la población está envejecida y paulatinamente va a más). En datos: los hogares integrados por personas mayores ha pasado del 18% en 1981 al 32% en 2006, una cifra a tener en cuenta.
  • Mejora de la calidad de vida de los usuarios crónicos y personas mayores debido a la disminución considerable de las visitas al médico y la mayor precisión en los diagnósticos.
  •  Existencia de una necesidad de mercado en el sector sanitario debido a una previsión del aumento en la esperanza de vida de la población, a las nuevas enfermedades producidas por el modo de vida de la sociedad actual, al reciente pero creciente movimiento de personas por Europa, y a la también imparable inmigración a Europa.
  • Ahorro de recursos sanitarios (las personas mayores, enfermos crónicos, y personas en general, irán mucho menos al médico ya que estarán controladas de otra manera produciéndose así una mejora en la calidad de vida de los usuarios). Por lo tanto, se prevé que la inversión inicial tendrá un rápido retorno en forma de ahorro económico para el sistema sanitario.

FORTALEZAS (DEL PRODUCTO-SERVICIO)

  • Introducción de mejoras significativas en la fase de diagnóstico y tratamiento de enfermedades, reduciendo la variabilidad de la práctica clínica.
  • Introducción de herramientas para la personalización de los tratamientos, mejorando así la eficiencia de los mismos.
  • Aumento de la seguridad en cuanto a una disminución significativa de efectos adversos en los hospitales.
  • Realizar el seguimiento cercano de los pacientes aunque físicamente no estén próximos.
  • Proporcionar a los profesionales sanitarios un acceso ubicuo y sencillo a la informaciónrequerida en el momento preciso.
  • Facilitar la colaboración entre facultativos en las fases de diagnóstico y seguimiento de los pacientes.
  • Los hospitales no estarían tan transitados como en la actualidad, y quedarían para la realización de terapias más especializadas y hospitalización de pacientes muy graves.
  • Los servicios de tele-asistencia actuales cubren tan sólo servicios básicos.
  •  Existencia de avances en biomedicina y medicina genética.
  •  Mejora de las relaciones entre pacientes y médicos, con una mayor eficacia de la comunicación.
  • Mejora de la coyuntura económica y política gracias a la innovación.
  • Mejora del servicio asistencial en el ámbito médico, con diagnósticos más precisos y personalizados para cada paciente.
  • Solidez en la experiencia de I3B en el desarrollo de proyectos basados en las TIC dentro del sector socio-sanitario.
  • Generación de una facturación adicional por las necesidades de mantenimiento del producto-servicio.

FORTALEZAS (TECNOLÓGICAS)

  • Desarrollo de servicios de tele-asistencia.
  • Mejorar accesibilidad del sistema sanitario.
  • Avance en el uso y desarrollo de nuevas técnicas diagnósticas y terapéuticas.
  • Avance en el tratamiento de imágenes y su posterior envío al personal médico.
  • Generación de nuevos productos agregados basados en las TIC.
  • Evolución de las técnicas de procesamiento del lenguaje natural.
  • Reducción de tiempos de análisis y de seguimiento de pacientes.
  • Posibilidad de desplazamiento del lugar de la intervención, desde el hospital hacia los centros de atención primaria y desde ahí hacia el domicilio de los pacientes, o incluso unidades de diagnóstico móviles situadas en centros con gran afluencia de gente.
  • Utilización de sistemas basados en el conocimiento.
  • El País Vasco se situa en una fase de crecimiento en cuanto a servicios tecnológicos relacionados con la sanidad.
  • Ibermática, empresa de referencia en el campo de Tecnologías de la Información y Comunicación, será el líder del proyecto. Además, cuenta con una amplia presencia en el estado español y latinoamericano con oficinas técnicas y centros operativos.
Médicos en contacto con el paciente mediante TIC Tecnologías de la Información y Comunicación OSI+

OPORTUNIDADES (DE MERCADO) 

  • Previsión de una futura escasez de profesionales médicos.
  • Fomento del empleo de aplicaciones sanitarias en red (“salud online”), produciendo la información médica a distancia.
  • El sector sanitario es un marco ideal para implantar nuevas tecnologías.
  • Serán necesarios médicos muy especializados en áreas concretas y médicos generalistas con conocimientos de varias especialidades para poner en común el conocimiento disponible.
  • Ahorro de recursos sanitarios en forma de reducción de costes.
  • Optimización de los procesos sanitarios.
  • Disminución de plazos.
  • Disminución de errores médicos.
  • Mayor probabilidad de entrar en el mercado y de ser aceptados más rápidamente ya que hablamos de un producto nuevo y útil.
  • Existencia de una clara probabilidad de posicionarse como líderes en la mente del consumidor. En consecuencia aumentará el prestigio de la empresa.

OPORTUNIDADES (DEL PRODUCTO-SERVICIO)

  • Mejora de la calidad de los servicios a domicilio, aportando además cierta comodidad tanto al usuario como a los profesionales.
  • Los servicios de tele-asistencia actuales son simplistas.
  • Disminución de efectos adversos en los pacientes.
  • Disminución de la variabilidad de la práctica clínica dando lugar a una mayor eficiencia de los servicios.

OPORTUNIDADES (TECNOLÓGICAS)

  • Desarrollo tecnológico de infraestructuras de comunicación a través de redes.
  • Acceso remoto a información del paciente por parte de profesionales.
  • Utilización de tecnologías avanzadas como biosensores.
  • En este caso, las TICs se aplican más allá de las técnicas médicas y ofrecen soportes a procesos relacionados con la sanidad.
  • El empleo de las TICs y de las nuevas tecnologías biomédicas han empezado a producirimportantes cambios en técnicas de investigación, diagnóstico y tratamiento de pacientes.

Se puede concluir que el proyecto se basa en tres áreas de interés:

– Diagnóstico eficaz

– Tratamiento eficaz

– Seguimiento eficaz

A partir de estas tres áreas se pueden extraer las tareas a realizar:

– Dispositivos para el diagnóstico y análisis.

– Sistema de telemedicina: seguimiento y monitorización.

– Informatización de procesos: Historial Clínico Inteligente, integración de estándares.

– Herramientas de soporte al diagnóstico.

– Interoperabilidad de equipos y sistemas informáticos.

Médico en casa con OSI+ El Hospital Inteligente y Extendido
Más información en:

http://proyectoosi.jimdo.com/

Branka4U, la banca para los usuarios

Ago 21, 2012   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en Branka4U, la banca para los usuarios

El sector financiero se enfrenta a un entorno muy complicado marcado por el cambio de ciclo que comenzó en el verano de 2007. En este contexto de crisis ha surgido con fuerza la necesidad de maximizar la productividad de las entidades financieras.
La banca, en un entorno negativo marcado por la adversidad económica y financiera actual, está aprovechando este período de dificultad para reforzar su posición competitiva y su orientación hacia el cliente, que le permitirá afrontar con éxito la
próxima fase de recuperación económica. Es precisamente en este punto donde se está comenzando a vislumbrar que las TIC tendrán un peso importante, favoreciendo la optimización de los procesos mediante su industrialización, incrementando la eficiencia en el sector mediante la adopción de las herramientas tecnológicas que faciliten su reestructuración.

En el proyecto Branka4U se van a desarrollar nuevas herramientas TIC para el sector bancario, para crear un entorno en terminales móviles lo suficientemente seguro para poder realizar las transacciones bancarias minimizando los incidentes
de seguridad.

El proyecto tiene estos objetivos tecnológicos:
1. Generación de herramientas para una industrialización efectiva del software,  haciendo posible, de manera general y controlada, que el código que se repite entre programas pueda escribirse una única vez, optimizándose y pudiendo ser empleado por todos los programadores de igual manera.
2. Despliegue efectivo de las arquitecturas SOA (orientadas a servicio) en el entorno bancario.
3. Pagos mediante tarjetas bancarias integradas en teléfonos móviles o bien con el estándar de interoperabilidad de tarjetas con chip Europay MasterCard VISA  (EMV) contact-less.
4. Acceso seguro a servicios independientemente del canal.
5. Herramientas para una interacción avanzada con el usuario:

• Herramientas para un conocimiento online de las necesidades concretas
usuario, que permita detectar las necesidades subjetivas de un cliente, ante eventos
tales como una baja laboral, en paro, buscando trabajo, cambios en sus relaciones
sociales, imprevistos, etc.), en base a datos internos conocidos de los usuarios, y
el análisis de fuentes externas, como las redes sociales y su influencia en la generación de patrones.
• Herramientas para la mejora de la interacción entre el usuario y los servicios.
• Herramientas Social Crowd para la monitorización automática de la información expuesta.

Análisis de los Beneficios del Proyecto Branka4U

• Incremento del impacto de las TIC en el  PIB del País Vasco.
• Impactos positivos significativos en la productividad de la economía.
• La forma de actuar de los mercados está cambiando hacia un modelo remoto de consulta y tratamiento de la información.
• Posicionamiento estratégico de las empresas vascas de base tecnológica.
• Asentamiento de la seguridad y confianza en nuevos mercados.
• El sector bancario es muy competitivo y debe permanecer actualizado.
• Los miembros del consorcio se posicionarán como líderes en tecnologías de la información, en sus respectivos nichos de mercado.

Tecnologías inteligentes para la banca a distancia

• Consecución de la seguridad necesaria para la realización de transacciones bancarias por medio del teléfono móvil.
• Disponibilidad de servicios personalizados al cliente.
• Las actividades que anteriormente se realizaban in-situ, ahora se realizarán de manera remota.
• Agilidad y rapidez de la puesta en marcha de un producto.

banca segura por móvil

• Aumento de la confianza en este tipo de sistemas.
• Disponibilidad de servicios personalizados al cliente.
• El sector bancario necesita soluciones de este tipo con urgencia.
• Posicionamiento de liderazgo en el mercado gracias a la fluidez de las nuevas soluciones.
• Una solución como esta favorecen una revolución en la interacción del usuario.
• Herramientas para un conocimiento online de las necesidades concretas de cada usuario.

Transacciones por el teléfono móvil

• Optimización de los procesos en el sector bancario.
• Interacción avanzada con el usuario incluyendo la interacción por voz.

• Seguridad y confianza en nuevos servicios como el teléfono móvil.

• Gran auge del sector móvil en la actualidad.
• Innecesidad de acudir a la oficina bancaria a realizar las tramitaciones.
• Servicio personalizado al usuario, con la usabilidad, accesibilidad e interacción multimodal necesarias.
• Nuevas vías de servicio como es el pago mediante dispositivos móviles.
• Pagos mediante tarjetas bancarias integradas en los móviles, incrementándose la práctica de compra con tarjeta.

Seguridad para los negocios

• Industrialización de la producción de software bancario.
• Desarrollo de la herramienta por modelos.
• Despliegue efectivo de las arquitecturas orientadas al servicio en el entorno bancario.
• Consecución de un entorno de seguridad en cuanto a las transacciones con móviles aportando confianza y garantía de seguridad.
• Investigación de herramientas que superen las limitaciones que tienen los actuales productos comerciales.

 

Más información en:

 http://branka4u.wix.com/branka#!home/mainPage

Hiridenda – Un sistema de Gestión de la Trazabilidad Inteligente

Ago 2, 2012   //   by wpuser   //   S.Expertos  //  Comentarios desactivados en Hiridenda – Un sistema de Gestión de la Trazabilidad Inteligente

Los almacenes y el sector de la logística en general han ido introduciendo, junto con el resto de los sectores económicos y la sociedad en general, nuevas tecnologías a su funcionamiento diario. Es habitual observar hoy en día cómo un trabajador utiliza una PDA o dispositivo similar para realizar lecturas sobre algún producto, o el uso de un programa informático mediante el que se realiza la gestión de una tienda.

Este hecho, unido al abaratamiento de los costes a la hora de adquirir la tecnología necesaria para equipar a los productos de sensores e identificadores  como etiquetas RFID  o redes inalámbricas, ha hecho posible generalizar el uso de estos elementos en tareas de monitorización y seguimiento de productos. Los distintos caminos de distribución dentro de un almacén se equipan con lectores que obtienen los datos de las etiquetas RFID, permitiendo conocer de qué producto se trata, para poder dirigir el producto a su destino, y mantener actualizado automáticamente el inventario. Un animal sacrificado en el matadero es controlado e identificado sin posibilidad de error gracias a un chip que se le implantó hace años, que se recupera fácilmente sin riesgo para el consumidor, lo que permite garantizar su origen, raza, destino, en definitiva, la calidad del producto.

Por otro lado, la introducción de técnicas de inteligencia artificial ha permitido ir más allá de las posibilidades ofrecidas por la automatización pero supervisadas por humanos. Entre estas técnicas encontramos los sistemas basados en conocimiento (SBC) que permiten apoyar, o incluso sustituir, a los humanos en la toma de decisiones, a partir del análisis de la información proporcionada por el sistema

Hiridenda ha desarrollado un sistema de inferencia que determina automáticamente cuál es el comportamiento y condiciones de una determinada mercancía en función de su contexto (almacén, tipo de producto, manipulación, condiciones ambientales, actuaciones habituales, etc…), permitiendo detectar anomalías en dicha información, e informando de las mismas en el momento que se producen.

Entre las nuevas funcionalidades que incluye este sistema, pueden mencionarse las siguientes:

  • Integración de servicios de posicionamiento de elementos en ambientes mixtos, para lo que se investigara la instalación de sistemas de posicionamiento tanto GNSS como para ambientes cerrados basados en UWB.
  • Desarrollo de sistemas de gestión de elementos que permita la consulta de la información de trazabilidad de los productos georreferenciada en tiempo real.
  • Creación de herramientas que permitan dotar a la plataforma de inteligencia la detección automatizada de patrones anómalos de comportamiento, para lo que se utilizaran motores de inferencia que determinen cuales son los estados tipo de una determinada mercancía, y detecten cualquier anomalía sobre ella, ya sea por ejemplo temperatura incorrecta para el producto, posicionamiento anómalo, movimientos en horas distintas de las habituales
  • Implementación de herramientas que permitan la anotación semántica asociada tanto a la carga como al transporte y que permitan búsquedas avanzadas sobre la información, como  capacidad de transporte libre en un determinado vehiculo, su posición, problemas en el material transportado, tolerancias a cambios térmicos…
  • Implementación de herramientas para creación de ambientes inteligentes que permitan determinar cual es la carga de un determinado transporte, cual es el transportista, la posición de una determinada mercancía, la características ambientales de un determinado  almacén donde se encuentre la materia prima
  • Creación de herramientas de control de carga que aúnen durabilidad, coste contenido y que permitan volcar de manera sistema la información de los parámetros ambientales tales como temperatura, humedad, etc. (que puedan ser incorporados a la información de trazabilidad de una manera automática y homogénea)
  • Mecanismos de seguridad que permitan tanto controlar cual es el acceso que se tiene a la carga almacenando el conjunto de operarios que ha tenido acceso a la misma así como las condiciones en los que lo ha hecho, y que por otra parte permita asegurar la confidencialidad de la información almacenada.
  • Investigación que permita dotar a la plataforma de inteligencia que detecte comportamientos anómalos de productos

Como resultado, se presenta un Cuadro de Mando sobre anomalías detectadas en los distintos almacenes sobre las posibles incidencias, presentes o futuras, que se pueden dar para un lote o producto determinado, en función de su contexto medioambiental o situacional.

Para ello, se realizan los siguientes procesos automáticos, conformando un Sistema de apoyo a la toma de decisiones en base a predicciones personalizadas:

  • Vigilancia: Análisis multivariable de relaciones ocultas en las incidencias.
  • Protección: Alertas pre-incidencias antes de las roturas.
  • Diagnóstico: Identifica el problema específico y su solución concreta.
  • Pronóstico: Estimar la confianza de la alerta, y la tendencia a futuro.
La implantación de dicha lógica, viene dad por dos caminos:
  • La inclusión manual de reglas conocidas por los expertos en logística, en una plataforma común y colaborativa
  • La generación de reglas de comportamiento automático por parte del sistema de forma desasistida.
  1. En la primera, los usuarios avanzados podrán incorporar al sistema su “expertis” de forma sencilla, amigable, en base a un simple editor de reglas, de forma que el comportamiento se “estandariza” en la plataforma, se mantiene y se distribuye entre toda la Organización.
  1. En la segunda, la plataforma detecta comportamientos no habituales, extraños, fuera de la normalidad, o similares a incidencias ocurridas en el pasado, y genera una alerta al respecto, indicando la razón de dicha anomalía, y la solución prevista más adecuada.
De esta forma, la plataforma permite una gestión automatizada de las transacciones que ocurren en el conjunto de almacenes y sistemas logísticos de una organización, chequeando constantemente cada paso de la trazabilidad de los materiales, y cotejando si existe alguna probabilidad de incidencia a futuro con respecto a dichos movimientos.
http://www.youtube.com/watch?v=OOQIfQEHgiI&feature=player_detailpage

GuiDes en Consorcios: Análisis de consumos de agua con Minería de datos + Sistemas expertos

Feb 23, 2012   //   by jc.cantera   //   S.Expertos  //  Comentarios desactivados en GuiDes en Consorcios: Análisis de consumos de agua con Minería de datos + Sistemas expertos

El agua es un recurso natural, imprescindible en la naturaleza y en nuestra vida, cada vez más escaso, de disponibilidad irregular.
Para el ser humano, el agua es vital: la necesitamos para beber, regar los cultivos, lavarnos. Además, se consume en grandes cantidades en los procesos industriales. Como recurso limitado que es, se debe ser muy cuidadoso en su recogida y distribución, lo mismo que en la gestión de ambas.
En el caso que nos ocupa hoy, trataremos de la gestión de la distribución del agua. Está claro la gestión del uso tendrá su impacto en la recogida: una buena gestión hará que sea necesaria menos agua.

Las Compañías de aguas se ven frente determinados retos específicos:

  • la gestión de redes distribuidas en un territorio amplio, lo que hace que los datos de consumo estén también muy distribuidos.
  • La complejidad de dichas redes.  la red de agua potable (captación, potabilización, distribución, almacenamiento) y la red de saneamiento (residuales, pluviales, alcantarillado, agua depurada)

En Ibermatica hemos desarrollado productos basados en minería de datos + sistemas expertos que ayudan a realizar una mejor gestión del recurso, el agua en este caso.
Los orígenes de datos están principalmente en la lectura de contadores, aunque también se incorporan otros como  hábitos de consumo, detecciones de fraude, fugas, traslado, red de distribución.


Nos centramos en dos objetivos: detección de anomalías en consumos y/o facturación, y detección de posibles alertas de otro tipo.
En el primer caso, el análisis determina lo que es normal en el negocio: rangos de consumo, configuraciones de facturación como el tipo de contrato y la actividad relacionada. Las reglas generadas proporcionarán lo que es normal. On line, según van entrando los datos, son procesados por el sistema experto, que proporciona los datos normales para la entrada (lectura). Si se compara la salida del sistema experto con la entrada, y se detectan cambios quiere decir que la entrada no está dentro de esa normalidad, lanzándose una alerta.


En el primer ejemplo que mostramos, se muestran casos de lecturas fuera del rango ordinario, sea para el tipo de actividad, la zona, el contrato, la calle…


Puede darse también que se produzca una entrada errónea en cuanto a la coherencia de los datos. Como vemos en el log de ejecución de reglas, el tipo “D” está asociada a la actividad “VIVIENDA” que además tiene tarifa 1. Si llega una entrada con otro valor para este dato, se detecta dicha incoherencia.

Las reglas detectadas por el proceso de minería y que ejecuta el sistema experto pueden comprobar diferentes valores del registro, por lo que podrían darse varios errores sobre un mismo registro. Se señalan a la vez los campos que producen los errores. Se puede elegir entre resaltar todos o sólo los de un determinado nivel.

Por otro lado, hay situaciones en las que anteriormente se han detectado anomalías en la lectura de contadores, como pueden ser fugas, lecturas erróneas, fraude, etc. Las lecturas entrantes, procesadas por el sistema experto, avisarán de la posibilidad de que se esté produciendo una situación de alerta, y de qué tipo. Este es un segundo modelo:

Si además las lecturas fuesen más frecuentes que la lectura del contador para facturación, combinando los datos con otros meteorológicos (precipitación, temperatura), estacionales, día de la semana… se pueden hacer previsiones de consumo de forma que la parte correspondiente al almacenamiento y distribución del agua gane también en eficiencia.

La extensión de las redes hace, junto con la distribución de los datos, hace prácticamente imprescindible el uso de tecnología móvil. Ello redunda en una mayor rapidez a la hora de detectar incidencias, reduciendo la gravedad de sus efectos, especialmente en el caso de averías.

Todo ello integrado en la herramienta GuiDes, combinando sistemas expertos con sistemas móviles, dota de una gran potencia a esta herramienta.

Entradas Relacionadas:

Mantenimiento Proactivo. Adelantándose a las incidencias críticas. Webminar gratuito…

Feb 7, 2012   //   by wpuser   //   S.Expertos  //  1 Comment

¿Es el mantenimiento una función destacada en su empresa? ¿Dedica importantes recursos a solucionar incidencias importantes? ¿Y si le dijéramos que es posible anticiparlas fiablemente?

Seguro que le resulta fácil imaginar las ventajas de la predicción de incidencias críticas de mantenimiento: optimización de procesos y servicios, de la producción, de recursos asignados, minimización de costes… Pero, ¿cómo lograrlo? Para ello resulta fundamental la aplicación de las nuevas tecnologías, cuya evolución permite el tratamiento masivo de datos en tiempo real, combinándolo con el análisis estadístico y predictivo y la información registrada en históricos.

De este modo en Ibermática, junto a SAS, hemos desarrollado nuestro Mantenimiento Proactivo, fruto de la combinación de nuestro conocimiento con el motor de inteligencia estadística y predictiva de SAS. Un sistema capaz de determinar de forma autónoma cuando se va a producir un evento crítico y de explicar sus razones y las medidas a tomar con antelación suficiente para garantizar su eficacia. Y, además, integrable con cualquier ERP.

Tenemos el placer de invitarle a un webinar (seminario informativo por Internet) en el que, sin moverse de su sitio, profundizar en las ventajas que una solución como ésta le puede aportar.

Aproveche esta oportunidad única e inscríbase, a la recepción de su inscripción le remitiremos las instrucciones de conexión al webinar.

Minería de datos y Sistemas Expertos

Dic 27, 2011   //   by jc.cantera   //   S.Expertos  //  2 Comments

En primer lugar, realizaremos un breve repaso de conceptos de minería de datos

¿Para qué sirve la minería de datos? Podemos necesitar información de:

  • Patrones de Consumos en Particulares
  • Patrones de Consumos en Empresas
  • Posibles Fugas y Alertas
  • ¿Dónde puedo optimizar mi oferta?
  • ¿Cómo puedo reducir mis costes?

Actualmente se disponen de grandes cantidades de datos, por lo que podríamos pensar que es fácil llegar a alguna conclusión respecto a las necesidades anteriores. Se inicia la búsqueda de datos, de secuencias, de hábitos, en archivos, en dispositivos, en informes, en internet…

Fuentes de datos

Con todo esto se forma un conjunto masivo de datos: Es necesario formar conjuntos coherentes, “normalizar” la información, especialmente si está en distintos soportes y las fuentes son heterogéneas.

Una vez hecho este esfuerzo inicial, el análisis tradicional se basa en realizar consultas con cuyos resultados se generan gráficos estadísticos, cubos, tablas dinámicas.
Esto nos lleva a un proceso cíclico en el que hay que seleccionar qué variables se utilizarán (p.e. cliente, producto, centro), qué umbrales para los valores, y cómo se determinan las reglas.

Tras la realización de estos estudios, vienen las posibles implementaciones: Configuradores de productos basados en las preferencias detectadas, venta guiada por internet, apoyo a la decisión en tiempo real, asistentes virtuales, en banca y seguros, por ejemplo.

¿Podría lograrse que:

  • La información relevante se extraiga sola del conjunto de datos
  • Se descubran patrones de comportamiento de forma automática
  • Se generen reglas de negocio con la misma facilidad que le aprieta un botón
  • Las reglas generadas puedan ejecutarse, lanzando alarmas en caso de anormalidad
  • El sistema aprenda con cada nueva transacción
  • Se puedan introducir nuevas reglas, de forma manual y colaborativa?

¿Cómo se puede hacer esto? Combinando técnicas de minería de datos con sistemas expertos.

La minería de datos constituye un conjunto de procedimientos para el descubrimiento del conocimiento, tales como:

  •  Segmentación
  •  Clasificación
  •  Predicción
  •  Obtención de reglas mediante algoritmos de asociación, análisis de series temporales

Con todo esto se obtiene conocimiento del negocio, como por ejemplo:

  •  Detección de hábitos de compra
  •  Detección de patrones de fuga
  •  Detección de fraude
  •  Segmentación de clientes y asignación de los productos más adecuados
  •  Campañas de marketing

Sistemas expertos. Algoritmo RETE

Para poder utlizar este conocimiento extraído mediante la minería de datos se hace necesario contar con una herramienta más, los sistemas expertos. Las reglas del negocio obtenidas presentan un índice de fiabilidad o relevancia por las que se ordenan, seleccionando solamente las más importantes.

Los sistemas expertos basados en reglas utilizan el algoritmo RETE.

Las reglas expresan relaciones del tipo Si Condición Entonces Consecuente. Tanto condición como Consecuente pueden estar compuestos de varios términos.

Ventajas del empleo de reglas:

  • Las reglas nos permiten indicar “qué es lo que hay que hacer”, no “cómo hacerlo”. En este sentido, es mucho más fácil expresar soluciones a problemas complejos y, por tanto, obtener soluciones verificadas.
  • Las reglas permiten resolver problemas de gran complejidad, proporcionando una explicación de cómo se ha llegado a la conclusción y por qué se ha tomado la decisión. Esto es algo que no puede ser hecho por una red neuronal, por ejemplo.
  • Una ventaja más de un motor de reglas es que permite separar la lógica de los datos. De esta forma, la lógica  puede se mucho más fácil de mantener respecto a cambios futuros.
  • También se dan ventajas en cuanto a la velocidad y escalabilidad. El algoritmo RETE, así como Leaps y sus descendientes Drools, proporcionan muchas formas eficientes de comparar patrones de reglas sobre los datos.
  • El conocimiento está centralizado. Se crea una base de reglas que es un base de datos de conocimiento. Además, las reglas son, idealmente, legibles y pueden servir como documentación.
  • Se integra el motor de reglas dentro de la herramienta de desarrollo de software que se está utilizando.
  • Ayuda para explicación, y reglas comprensibles. La ejecución de reglas puede generar un log que explica qué decisiones se han tomado y por qué. Las reglas pueden estar escritas de una forma muy parecida al lenguaje natural, lo que facilitará la comprensión del proceso.

¿Cuándo usar un motor de reglas?

  • El problema es demasiado complejo para una programación tradicional
  • El problema no tiene una solución basada en un algoritmo obvio
  • La lógica cambia a menudo. Puede que la lógica sea sencilla, pero cambia con frecuencia
  • Existen expertos en el dominio tratado, disponibles en el momento, pero no son técnicos. Suele ocurrir que se disponga de expertos con una vasto conocimiento del negocio y que, no siendo técnicos sí son muy lógicos. Las reglas les permiten expresarse en sus propios términos.

¿Cuándo no usar un motor de reglas?

  • Si se trata de ejecutar un flujo de trabajo o procesos, el motor de reglas no es la herramienta adecuada.

Otras alternativas al uso de un motor de reglas, están basadas en motores basados en scripts, que soportan el dinamismo para cambios “sobre la marcha”.
También existen motores de procesos, capaces de ejecutar flujos de trabajo, como jBPM, diseñados gráficamente, que describen pasos en un proceso; pasos que pueden implicar puntos de decisión en forma de regla. A menudo estos workflow y las reglas funcionan muy bien en conjunto.

Estructura de las reglas

La representación del conocimiento para un motor de reglas viene dada por una estructura de dos grandes partes, que llamaremos LHS (left hand side) y RHS  (right hand side), o parte izquierda y parte derecha. Adicionalmente, puede contener otros atributos, como la prioridad, el grupo de reglas al que pertenece, si se puede buclar, duración…

La parte izquierda consiste en elementos condicionales y columnas, construidos según lógica de primer orden. Los elementos condicionales son los operadores ‘and’, ‘or’, ‘not’, ‘exists’. Y las columnas determinan restricciones en los contenidos de los campos, de tipo ‘literal’, ‘límites’, ‘valor devuelto’.

La parte derecha (RHS) es parte de acción o consecuencia de una regla. Su propósito es quitar o añadir hechos en la memoria de trabajo, así como  invocar acciones arbitrarias en la aplicación. Es decir, es un bloque de código que se ejecuta cuando la regla se dispara.

Los hechos se “afirman” en la memoria de trabajo y son comparados con las restricciones determinadas por las reglas, que seleccionan a qué hechos afectan. Por ejemplo, si en una regla se encuentra la columna (restricción) Person.sex=”female”, equivaldría a una sentencia SQL del tipo: select * from PEOPLE where People.sex == “female”.

Algoritmo RETE

El algoritmo RETE fue inventado por el Dr. Charles Forgy y documentado en su tesis doctoral en 1978-79. Una versión simplificada se publicó en 1982:  http://citeseer.ist.psu.edu/context/505087/0
El nombre RETE viene del latín red. El algoritmo puede ser dividido en dos partes: en tiempo de compilación y el tiempo de ejecución.

La compilación del algoritmo describe cómo se genera una red eficiente de discriminación con las reglas en la memoria de producción. Es decir, la red se utiliza para filtrar los datos. La idea es filtrar los datos mientras se propagan a través de la red. Al principio hay muchos nodos que coinciden con el patrón, y según se avanza por la red, se van reduciendo las coincidencias. En la parte más profunda de la red están los nodos terminales. En el paper del Dr. Forgy de 1982 se describen 4 nodos básicos: raíz, 1-input, 2-input y terminal.

El nodo raíz es por el que todos los objetos entran en la red. Desde aquí, inmediatamente van al ObjectTypeNode, que tiene como propósito que el motor no realice más trabajo del necesario. Es decir, si tenemos dos objetos, Cuenta y Pedido, cuando se comparan propiedades objeto, sólo se procesan los nodos de tipo de objeto tratado.

Los nodos ObjectTypeNodes puedes propagarse hacia AlphaNodes, LeftInputAdapterNodes y BetaNodes.
Los AlphaNodes se usan para evaluar condiciones literales. En implementaciones posteriores se soportan otros tipos de operaciones. En Drools, por ejemplo, se optimiza la propagación mediante hashing.

Los BetaNodes se usan para comparar dos obejetos y sus campos, entre ellos. Los objetos pueden ser del mismo o diferente tipo. Son nodos con dos entradas (2-input nodes): JoinNode y NotNode. Por convención nos podemos referir a las dos entradas con izquierda y derecha. La entrada izquierda es, generalmente, una lista de objetos. La entrada derecha es un único objeto. La entrada izquierda es llamada Beta Memory y recuerda todas las tuplas entrantes. La derechas se llama Alpha Memory y recuerda los objetos entrantes. Si en algún momento se encuentra una relación entere los hechos (objeto) y las tuplas de la izquierda, el objeto se propagará hacia el siguiente nodo.

Los nodos Terminales se usan para indicar que en una regla se han cumplido todas sus condiciones. Si una regla contiene un ‘or’, se generan nodos terminales para cada rama lógica. Así pues, una regla puede tener múltiples nodos terminales.

Join Node

En Ibermatica hemos realizado con éxito aplicaciones utilizando motores de reglas, unidos a sistemas de minería de datos, tales como:

Páginas:12»