Research

Les activités de recherche de l’équipe LOGIMICS relèvent de l’emploi de formalismes, méthodes ou outils informatiques fondés sur la logique, les probabilités, les graphes, la théorie des catégories, la morphologie mathématique, les treillis, ou encore les automates, … avec pour principaux champs d’investigation :
(Systèmes) les systèmes à logiciels prépondérants, à savoir les systèmes constitués de composants interconnectés par différents protocoles de communication, de nature hétérogène (capteurs, routeurs, composants logiciels, . . .). En combinant des concepts issus de l’analyse non standard, desco-algèbres, des automates temporisés, . . ., il s’agit de modéliser de tels systèmes, et en particulier, leurs éléments jugés clés, tels que les aspects temps-réel ou probabilistes, la dualité continu/discret, la structuration en sous-systèmes et médias de communication avec l’objectif de définir des outils (résultats de compositionalité, raisonnement, préservation par raffinement, relations de conformité, . . .) pour l’aide à la conception et validation de systèmes ;

(Données) l’intelligence artificielle symbolique, à la croisée des domaines de la représentation des connaissances et du raisonnement, de l’apprentissage profond de représentations sémantiques, de l’analyse et de la fouille de données. En partant du postulat que l’interprétation sémantique des données dépend des connaissances a priori sur le domaine d’application, l’objectif est d’intégrer des modèles de connaissances dans les processus de décision en se basant sur des formalismes tels que les ontologies, les logiques de description, la logique floue, les graphes ou les treillis.
A cette fin, l’équipe LOGIMICS développe deux champs de compétences complémentaires :
— la définition de formalismes capables d’exprimer les propriétés (connaissances ou exigences) appropriées pour le domaine d’application visé d’une part et munis de méthodes (conception, critère, analyse, . . .) ou d’outils (raisonnement, vérification, . . .) d’autre part ;
— la conception d’outillage (algorithmes, logiciels, méthodologies) guidée par des soucis d’applicabilité, d’automatisation, de performances ou de passage à l’échelle, en lien avec les différents domaines d’application étudiés (réseaux biologiques, analyse d’images, smart grids, . . .).

Les commentaires sont clos.