Avec le traitement des données, l’Intelligence Artificielle est désormais en mesure d’apprendre ou d’anticiper des situations. Au cœur des préoccupations, l’IA alimente les débats contemporains. Qu’est-ce que l’Intelligence Artificielle peut apporter au bâtiment ? En quoi est-elle un levier de performance ? Nous vous proposons un décryptage d’après les propos de Jacques Plévin, expert en recherche et innovation au sein du groupe Delta Dore.

 

Où en sommes-nous avec l’IA ?

L’intelligence Artificielle n’est pas un concept nouveau. Il y a plus de 50 ans, Alan Turing en fondait les prémices avec sa célèbre « Machine de Turing » pour expliquer la notion d’algorithme. . Devenue très actuelle avec la performance des machines et l’apparition des objets connectés, l’Intelligence Artificielle est désormais un procédé plébiscité par de nombreux secteurs d’activité dont celui du bâtiment.

Le contexte technologique actuel, avec l’arrivée des voitures autonomes, des assistants vocaux, des systèmes de reconnaissances faciales ou encore des chatbots favorise la récupération des données. Dans le milieu du bâtiment, la multitude de données produites permet de réaliser des constructions autonomes et au plus proche des préoccupations des utilisateurs. L’Intelligence Artificielle permet de traiter les informations émises par les usagers et d’adapter le fonctionnement des équipements (capteurs, actionneurs, contrôleurs) en fonction des habitudes ou des besoins. Le marché est mature à l’intégration de ce système intelligent dans le monde du bâtiment.

 

Qu’apporte l’IA au secteur du bâtiment ?


Une évolution technologique majeure

En l’espace de quelques années l’intégration de l’Intelligence Artificielle a considérablement évolué. Auparavant, dans le secteur du bâtiment, pour mettre en place des systèmes de pilotage intelligents, les algorithmes fonctionnaient grâce à des modèles prédéfinis. Les approches business fonctionnaient alors en silos. Les ingénieurs et les techniciens définissaient eux-mêmes des situations qu’ils avaient pu observer pour en tirer des modèles. C’était le domaine des automaticiens. Si les conditions étaient amenées à évoluer alors le système de pilotage ne pouvait s’adapter aux nouvelles circonstances.

Jusqu’à présent, seul le confort thermique était implanté dans les bâtiments. Désormais, avec l’ajout de technologies innovantes, l’objectif est triple. Il concerne à la fois le bien-être multi-confort des usagers, leur santé et l’optimisation énergétique. Les 3 composantes intégrées sont : le confort thermique aussi bien en hiver qu’en été, le confort visuel et la qualité d’air. Avec l’Intelligence Artificielle, les algorithmes se coordonnent et fonctionnent en auto-apprentissage et non plus au moyen de modèles prédéfinis. Cette technique permet au système de s’adapter en temps réel à des événements aléatoires. Les données modélisant le bâtiment et présentes dans le BIM peuvent être utilisées par un configurateur pour paramétrer les différents équipements.

 

Nouvelle approche partagée et transverse

L’Intelligence Artificielle bouleverse également les méthodes de travail. Désormais, intégrer cette technologie dans les algorithmes requiert moins d’ingénierie et donc plus de simplicité dans la mise en œuvre et l’usage. L’ouverture aux systèmes d’informations tiers développe de nouvelles applications et services dans le bâtiment.

Les bénéfices 

L’intérêt de l’Intelligence Artificielle est de croiser une multitude de données afin que l’algorithme puisse apprendre et s’adapter seul en fonction des éléments qui lui sont transmis. Les technologies de Machine Learning permettent également à partir de stratégies optimales d’en déduire des algorithmes simplifiés mais devenant simples à intégrer dans des produits à faibles performances. L’Intelligence Artificielle a donc de nombreux avantages, et notamment pour les usagers. En effet, grâce à l’auto-apprentissage, cette technologie s’adapte aux besoins des utilisateurs en temps réel. Le bâtiment devient alors autonome et favorise le confort et le bien être des usagers.

Le contexte technologique rend ces solutions accessibles au plus grand nombre. Les technologies intégrées sont à la fois très complexes au niveau du fonctionnement, mais surtout très accessibles en termes d’utilisation pour le gestionnaire. Les fabricants s’évertuent à proposer des solutions simples et intuitives afin de toucher le plus grand nombre.

Les enjeux éthiques liés à l’Intelligence Artificielle

Le traitement des données est primordial afin que les algorithmes du système puissent s’auto-adapter en fonction des comportements et des situations. Cependant, la récupération des données est à manier avec précautions. En effet, avec le phénomène de Big Data, l’utilisation de l’Intelligence Artificielle peut être un frein. Afin que les systèmes s’adaptent, il est indispensable de récupérer les données produites. Or, ces données relèvent de la sphère privée, elles sont donc connues et utilisées, parfois à mauvais escient. Les GAFAM* intègrent ces technologies relatives à l’Internet des Objets (IoT). Par conséquent, ils utilisent les données personnelles et les conservent afin de les réemployer. Cet usage controversé des données par certains acteurs a permis une réelle prise de conscience afin d’anticiper les risques. Pour manipuler ces nouvelles technologies de pointe il faut donc prendre en compte les libertés individuelles et personnelles de chacun et savoir les utiliser intelligemment. Les technologies de Edge Computing** proposent un bon compromis entre le « tout cloud » et le « tout local ».

En somme, hormis le phénomène de Big Data dont les acteurs se prémunissent de tous les abus, les perspectives de l’Intelligence Artificielle sont déjà très actuelles et prometteuses pour les constructions à venir.

*GAFAM : Google, Apple, Facebook, Amazon, Microsoft
**Edge computing : Le Edge Computing est une forme d’architecture informatique faisant office d’alternative au Cloud Computing. Plutôt que de transférer les données générées par des appareils connectés IoT vers le Cloud ou un Data Center, il s’agit de traiter les données en périphérie du réseau directement où elles sont générées (source : bigdata.fr)