Pas d’intelligence artificielle sans big data

D’après les prévisions du cabinet IDC, la masse mondiale de données digitales produites devrait encore doubler d’ici à 2020.  Autant de denrées précieuses pour les systèmes d’intelligence artificielle dont la précision progresse au fil de l’apprentissage machine. Une perspective prometteuse pour l’avenir de l’IA !

Dans notre quotidien comme dans l’industrie, les exemples abondent… Plus les systèmes sont alimentés en données, plus ils sont performants. La pertinence des résultats proposés par Google est liée aux milliards de recherches lancées quotidiennement sur le moteur et qui alimentent son algorithme le rendant plus précis au fil du temps. Même constat pour Siri et Cortana qui ont appris notre langage au terme de millions d’heures « d’écoute ». C’est également grâce au machine learning que Connie, le robot concierge des hôtels Hilton, sait désormais répondre efficacement aux requêtes des clients.

 

Souplesse et rapidité dans le traitement des données

 

Or, les volumes de data produites continuent de croître de manière exponentielle à mesure que de nombreux dispositifs deviendront « intelligents » – domiciles et usines connectés, smart city, etc. Dans 10 ans, ce sont plus de 150 milliards de capteurs généreront un volume de données qui doublera… toutes les 12 heures…

Ces données instrumentales aident les systèmes d’intelligence artificielle à comprendre ce que les gens pensent et ressentent, et la façon dont ils réagissent ; elles accélèrent l’apprentissage des machines et devraient bientôt permettre de prendre en charge l’analyse des données. Plus le système reçoit de données, mieux il apprend et plus il est précis. Ensemble, l’accès aux données en temps réel et la puissance de calcul aujourd’hui disponible offrent davantage de flexibilité et de réactivité, des impératifs dans une approche orientée data.

 

Lire l’article (en anglais)

 

En complément :

Un manque d’exploitation des big data

L’explosion du marché des objets connectés