llm

L'analyse et la classification des graphes : Une approche révolutionnaire en IA

Essai comparatif détaillé pour l'analyse et la classification de graphique entre réseaux de neurones convolutifs et LLM multimodaux


 

L'analyse et la classification des graphes sont devenues des domaines cruciaux dans l'intelligence artificielle et l'apprentissage automatique, offrant une perspective unique sur les données interconnectées. Ces techniques permettent de modéliser et d'analyser des réseaux complexes, allant des réseaux sociaux aux systèmes biologiques. Dans ce contexte, deux technologies émergentes se distinguent : les réseaux de neurones convolutifs (CNN) et les grands modèles de langage multimodaux (LLM). Les CNN, initialement conçus pour le traitement d'images, s'adaptent désormais à l'analyse de graphes, tandis que les LLM multimodaux intègrent diverses formes de données pour une compréhension plus holistique.[1][2][3][4][5][6][7][8][9][10]

cnn1
[11]

Les CNN, piliers de la vision par ordinateur, se composent de couches convolutives, de pooling et entièrement connectées. Ils excellent dans la détection de caractéristiques hiérarchiques dans les données structurées en grille, ce qui les rend particulièrement efficaces pour la classification d'images et la détection d'objets. En revanche, les LLM multimodaux représentent une avancée significative dans le traitement du langage naturel, capables d'intégrer et d'interpréter simultanément du texte, des images et de l'audio. Cette polyvalence les rend précieux dans des domaines tels que la génération de contenu multimodal et les systèmes de question-réponse visuels.[12][8][4][5][7][3][13][10]

Technologie Application principale Type de données
CNN Vision par ordinateur Images
LLM multimodal Traitement multimodal Texte, images, audio
Analyse de graphes Réseaux complexes Données structurées en graphes
[1][2][3][4][5][13][6][7][8][9][10]

Principes fondamentaux des CNN pour l'analyse et la classification de graphes

Les réseaux de neurones convolutifs (CNN) ont été adaptés pour l'analyse et la classification de graphes grâce au développement des réseaux de neurones convolutifs sur graphes (GCN). Ces derniers étendent le concept de convolution aux structures de données irrégulières que sont les graphes. Contrairement aux CNN traditionnels qui utilisent des filtres de taille fixe sur des grilles régulières, les GCN emploient des opérations de convolution sur graphes qui agrègent l'information des nœuds voisins pour mettre à jour les caractéristiques d'un nœud central. Cette approche, souvent appelée 'passage de messages', permet aux GCN d'apprendre des représentations cachées qui encodent à la fois la structure locale du graphe et les caractéristiques des nœuds.[14][15][16][17][18]

L'architecture des GCN comprend généralement plusieurs couches de convolution sur graphe, chacune suivie d'une fonction d'activation non linéaire. Les opérations de convolution sur graphe sont définies à travers la transformée de Fourier du graphe et impliquent souvent une paramétrisation polynomiale, telle que les polynômes de Chebyshev, pour assurer un support compact et réduire la complexité computationnelle. Les couches de pooling, essentielles dans les CNN classiques, sont adaptées aux graphes par des méthodes telles que le SortPooling, le DiffPool, ou le pooling basé sur l'attention. Ces techniques permettent de réduire la dimensionnalité du graphe tout en préservant les informations structurelles importantes. Cette architecture permet aux GCN de capturer efficacement les motifs complexes et les dépendances au sein des données de graphes, les rendant particulièrement efficaces pour des tâches telles que la classification de nœuds, la classification de graphes et la prédiction de liens.[14][16][19][17][18]

CNN2
[20]

 

Composant Fonction dans les GCN
Couche de convolution sur graphe Agrégation de l'information des nœuds voisins
Fonction d'activation Introduction de non-linéarité
Pooling sur graphe Réduction de la dimensionnalité du graphe
Couche entièrement connectée Classification finale
[14][15][16][19][17][18]

Approche des LLM multimodaux dans l'analyse et la classification de graphes

Les modèles de langage multimodaux (LLM) apportent une perspective novatrice à l'analyse et à la classification des graphes en intégrant des techniques de traitement du langage naturel et des entrées multimodales. Ces modèles exploitent leur capacité à traiter simultanément du texte, des images et d'autres modalités pour appréhender les structures de graphes de manière plus holistique. L'une des approches clés consiste à représenter les graphes sous forme de séquences de tokens, permettant aux LLM de les traiter sans modification majeure de leur architecture. Cette méthode, connue sous le nom de 'Graph as Sequence', permet aux LLM d'analyser les graphes en utilisant leurs capacités de traitement du langage naturel existantes.[21][22][23][24][25]

Une autre approche importante est celle des 'Graph-Empowered LLM', qui modifie l'architecture des LLM pour permettre un encodage conjoint du texte et des graphes. Cette méthode permet une intégration plus profonde des informations structurelles des graphes dans le processus de traitement du LLM. De plus, la technique de 'Graph-Aware LLM Finetuning' affine les LLM avec une supervision spécifique aux graphes, améliorant ainsi leur capacité à générer des représentations contextualisées des graphes. Ces approches sont complétées par l'utilisation de LLM comme encodeurs, où ils encodent le texte associé aux nœuds ou aux arêtes du graphe, fournissant des embeddings d'entrée pour les réseaux de neurones sur graphes (GNN).[26][22][27][24][25]

L'intégration d'entrées multimodales améliore significativement les performances des LLM dans l'analyse de graphes. En combinant des informations textuelles et visuelles, ces modèles peuvent mieux comprendre les structures de graphes complexes, améliorant ainsi leurs performances dans des tâches impliquant à la fois des propriétés locales et globales des graphes. Cette approche multimodale permet aux LLM de s'adapter efficacement aux tâches de compréhension de graphes sans nécessiter d'entraînement spécifique à la tâche, surpassant souvent les modèles d'encodage de graphes spécialisés. Cependant, des défis subsistent, notamment en termes de complexité des graphes, de représentation visuelle et d'efficacité des modèles, nécessitant des recherches continues pour optimiser ces approches.[28][21][29][22][23][8][30][24]

CNN3
[31]

 

Approche Description
Graph as Sequence Représentation du graphe comme une séquence de tokens
Graph-Empowered LLM Modification de l'architecture LLM pour l'encodage conjoint texte-graphe
Graph-Aware LLM Finetuning Affinage du LLM avec supervision spécifique aux graphes
LLM as Encoder Encodage du texte associé aux nœuds/arêtes pour les GNN
LLM as Aligner Alignement des embeddings textuels et graphiques
[26][22][27][24][25]

Comparaison des forces des CNN et des LLM multimodaux dans l'analyse et la classification de graphes

Les réseaux de neurones convolutifs (CNN) et les modèles de langage multimodaux (LLM) présentent des forces distinctes dans l'analyse et la classification de graphes. Les CNN, particulièrement dans leur forme adaptée aux graphes (GCN), excellent dans la capture de caractéristiques locales et sont computationnellement efficaces pour des tâches spécifiques. Ils sont particulièrement performants pour traiter des structures moléculaires et des données de réseaux sociaux de taille modérée, grâce à leur capacité à exploiter les relations spatiales et la topologie des graphes. Les GCN peuvent effectuer des opérations de convolution directement sur les graphes, ce qui les rend efficaces pour des tâches telles que la classification de nœuds et la prédiction de liens.[32][1][4][22][16][33][24][25]

En revanche, les LLM multimodaux démontrent une polyvalence supérieure et une meilleure capacité à capturer des caractéristiques globales des graphes. Leur force réside dans leur capacité à intégrer des informations textuelles et visuelles, ce qui leur permet de comprendre et d'analyser des structures de graphes complexes sans nécessiter d'entraînement spécifique à la tâche. Cette flexibilité les rend particulièrement efficaces pour l'analyse de graphes de connaissances et de réseaux sociaux à grande échelle, où la compréhension du contexte et des relations sémantiques est cruciale. Les LLM multimodaux ont démontré des performances supérieures dans des tâches de compréhension de la structure des graphes, surpassant souvent les modèles d'encodage de graphes spécialisés.[32][4][5][34][22][16][35][33][24]

En termes de scalabilité, les LLM multimodaux montrent un avantage pour le traitement de grands graphes, grâce à leur capacité à gérer des entrées multimodales et à raisonner sur des structures complexes. Cependant, cette polyvalence s'accompagne d'une complexité computationnelle accrue. Les CNN, bien que moins flexibles, offrent une meilleure efficacité computationnelle pour des tâches spécifiques sur des graphes de taille modérée. Pour les structures moléculaires, les CNN ont montré des performances remarquables, notamment dans la classification de composés chimiques et la prédiction de bioactivité, atteignant des précisions élevées. En résumé, le choix entre CNN et LLM multimodaux dépend de la nature spécifique de la tâche, de la taille et de la complexité du graphe, ainsi que des ressources computationnelles disponibles.[12][36][25][22][37][28][33][24][1][4][16]

CNN4
[38]
stats-chart-outline

 

98% AUC
Précision maximale atteinte par les CNN dans certains ensembles de données pour la prédiction de bioactivité moléculaire
 
Aspect CNN/GCN LLM Multimodal
Efficacité computationnelle Élevée pour des tâches spécifiques Complexe, ressource-intensive
Scalabilité aux grands graphes Limitée Supérieure
Capture de caractéristiques locales Excellente Bonne
Capture de caractéristiques globales Limitée Excellente
Performance sur les réseaux sociaux Bonne pour taille modérée Supérieure pour grande échelle
Performance sur les structures moléculaires Excellente Moins documentée
[12][5][36][25][22][37][28][32][34][33][24][1][4][16][35]

Faiblesses et limitations des CNN et LLM multimodaux dans l'analyse et la classification de graphes

Les CNN et les LLM multimodaux présentent des faiblesses distinctes dans l'analyse et la classification de graphes. Les CNN, bien qu'efficaces pour le traitement d'images, peinent à gérer la nature irrégulière et non euclidienne des graphes. Leur principale limitation réside dans leur difficulté à capturer les relations complexes et les dépendances temporelles dans les graphes dynamiques. Cette inadéquation structurelle nécessite souvent l'intégration de techniques supplémentaires, comme les réseaux de neurones sur graphes (GNN), pour traiter efficacement les données de graphes. De plus, l'interprétabilité des CNN dans ce contexte reste un défi majeur, leur nature de 'boîte noire' rendant difficile la compréhension de leurs décisions, ce qui est particulièrement problématique pour des applications critiques nécessitant une explication claire des résultats.[4][39][16][40][3][18]

Les LLM multimodaux, malgré leur polyvalence, rencontrent des difficultés spécifiques dans l'analyse de graphes. Ils peinent notamment à effectuer des tâches basiques d'analyse de réseaux visuels, telles que l'identification des nœuds de degré maximal ou l'évaluation de l'équilibre structurel dans les triades. Des études ont montré que même des modèles avancés comme GPT-4 et LLaVa obtiennent des performances proches du hasard sur ces tâches. De plus, les LLM multimodaux sont limités dans leur capacité à traiter des graphes de grande taille en raison des contraintes de longueur d'entrée, et ils peuvent perdre des informations cruciales lors de la traduction des structures de graphes en représentations textuelles ou visuelles compréhensibles par le modèle. Ces limitations soulignent la nécessité d'améliorer l'alignement entre les espaces de caractéristiques des graphes et les capacités de traitement des LLM multimodaux.[21][33][22][30][24][25]

 
flash

 

0.51
Précision de GPT-4 dans la prédiction de l'équilibre structurel des triades, comparable à une prédiction aléatoire[21][33]
 
Aspect Limitations des CNN Limitations des LLM multimodaux
Structure des données Inadaptés aux structures non-euclidiennes des graphes Difficulté à préserver les relations spatiales complexes
Graphes dynamiques Incapacité à capturer les dépendances temporelles Non spécifiquement conçus pour les graphes dynamiques
Interprétabilité Modèles 'boîte noire' difficiles à interpréter Manque de transparence dans le raisonnement sur les graphes
Tâches spécifiques Faiblesse dans la capture des relations globales Difficulté avec les tâches basiques d'analyse de réseaux visuels
Scalabilité Limités pour les grands graphes Contraintes de longueur d'entrée pour les grands graphes
[40][3][25][39][22][21][33][24][4][16][18][30]

Comparaison des performances des CNN et LLM multimodaux dans l'analyse et la classification de graphes : Résultats récents

Les recherches récentes en 2024 ont mis en lumière les avancées significatives des modèles de langage multimodaux (LLM) dans l'analyse et la classification de graphes, surpassant souvent les approches traditionnelles basées sur les CNN. Des modèles comme GPT-4o et GPT-4 ont démontré une précision quasi parfaite dans la compréhension des structures de graphes, dépassant les performances des modèles d'encodage de graphes spécialisés. L'intégration d'informations textuelles et visuelles s'est avérée cruciale pour ces modèles, leur permettant de mieux appréhender les structures complexes des graphes. Les études ont évalué ces modèles sur diverses tâches au niveau des nœuds, des arêtes et des graphes entiers, utilisant des ensembles de données variés tels qu'Amazon-Sports, Amazon-Cloth, Goodreads-LP, Ele-fashion et Goodreads-NC. Ces datasets, riches en caractéristiques textuelles et visuelles, ont permis d'évaluer les performances des modèles sur des tâches comme la prédiction de liens et la classification de nœuds.[32][29][22][42][33][30][24][25]

Les résultats ont révélé que l'impact de l'entrée visuelle varie en fonction de la complexité du graphe et de la nature de la tâche, les tâches liées aux propriétés globales bénéficiant davantage de l'apport visuel par rapport aux tâches locales. Cependant, des défis persistent, notamment en termes de scalabilité et d'efficacité du fine-tuning pour les LLM multimodaux. Les chercheurs explorent de nouvelles approches, comme l'intégration d'outils de raisonnement sur les graphes et l'utilisation de techniques d'instruction-tuning pour améliorer les capacités de raisonnement sur les graphes des LLM. De nouveaux benchmarks, tels que le Multimodal Graph Benchmark (MM-GRAPH), sont en cours de développement pour évaluer de manière plus complète les performances des algorithmes d'apprentissage sur les graphes dans des contextes réalistes, intégrant à la fois des informations textuelles et visuelles.[43][44][45][32][36][33][27][30][24]

CNN3
[46]

 

Aspect CNN LLM Multimodal
Performance sur les tâches globales Limitée Supérieure
Intégration texte-image Limitée Excellente
Scalabilité Bonne Défis persistants
Compréhension des structures complexes Modérée Très bonne
Adaptabilité aux nouvelles tâches Limitée Élevée
[36][27][25][44][29][22][43][32][33][24][45][42][30]
 
 

Approches hybrides et complémentaires des CNN et LLM multimodaux pour l'analyse et la classification de graphes

Les approches hybrides et complémentaires des réseaux de neurones convolutifs (CNN) et des modèles de langage multimodaux (LLM) pour l'analyse et la classification de graphes offrent des perspectives prometteuses. Les CNN sont particulièrement efficaces pour extraire des caractéristiques locales et structurales des graphes, tandis que les LLM peuvent capturer des relations sémantiques complexes et des dépendances à long terme. En combinant ces deux types de modèles, il est possible d'améliorer la précision et la robustesse des systèmes d'analyse de graphes. Cette synergie permet également de mieux gérer la diversité des données graphiques et de répondre à des défis spécifiques tels que la classification de graphes hétérogènes ou l'analyse de réseaux sociaux complexes. En conclusion, l'intégration des CNN et des LLM multimodaux représente une avancée significative dans le domaine de l'intelligence artificielle appliquée à l'analyse de graphes, ouvrant la voie à de nouvelles applications et à des recherches futures.

En somme, l'intégration des réseaux de neurones convolutifs (CNN) et des modèles de langage multimodaux (LLM) dans l'analyse et la classification de graphes représente une avancée majeure dans le domaine de l'intelligence artificielle. Cette approche hybride permet non seulement d'améliorer la précision et la robustesse des systèmes, mais aussi de mieux gérer la diversité des données graphiques. Les perspectives futures incluent des applications innovantes dans des domaines variés tels que l'analyse de réseaux sociaux, la bioinformatique, et la détection de fraudes. La synergie entre CNN et LLM ouvre ainsi de nouvelles voies de recherche et d'innovation, promettant des solutions plus efficaces et adaptées aux défis complexes posés par les graphes hétérogènes.

Les références:

  1. “What is a multimodal language model?.” Moveworks, https://www.moveworks.com/us/en/resources/ai-terms-glossary/multimodal-language-models0. Accessed 16 September 2024.
     
  2. “Multimodal Large Language Models (MLLMs) transforming Computer Vision.” Medium · The Tenyks Blogger, 30 June 2024, https://medium.com/@tenyks_blogger/multimodal-large-language-models-mllms-transforming-computer-vision-76d3c5dd267f.
     
  3. “Convolutional Neural Networks (CNNs) in Computer Vision.” Medium · AI & Insights, 26 June 2023, https://medium.com/@AIandInsights/convolutional-neural-networks-cnns-in-computer-vision-10573d0f5b00.
     
  4. “Convolutional Neural Networks.” LinkedIn · Datamind, 27 June 2023, https://www.linkedin.com/pulse/convolutional-neural-networks-bi-consult-datamind.
     
  5. “What is Large Multimodal Models (LMMs)? LMMs vs LLMs in '24.” AIMultiple, 29 August 2024, https://research.aimultiple.com/large-multimodal-models/.
     
  6. “Graph Machine Learning.” GraphAware, 7 September 2024, https://graphaware.com/glossary/graph-machine-learning/.
     
  7. “Convolutional Neural Network (CNN) in Machine Learning.” GeeksforGeeks, 13 March 2024, https://www.geeksforgeeks.org/convolutional-neural-network-cnn-in-machine-learning/.
     
  8. “Multimodal Models: Understanding Their Significance in AI Systems.” MarkovML, 25 March 2024, https://www.markovml.com/blog/multimodal-models.
     
  9. “Graph machine learning: How to combine graph analytics and ML.” Linkurious, 20 May 2024, https://linkurious.com/graph-machine-learning/.
     
  10. “What are convolutional neural networks?.” IBM, https://www.ibm.com/topics/convolutional-neural-networks. Accessed 16 September 2024.
     
  11. “Convolutional Neural Network ....” Analytics Vidhya, 28 October 2020, https://www.analyticsvidhya.com/blog/2020/10/what-is-the-convolutional-neural-network-architecture/.
     
  12. Huyen, Chip “Multimodality and Large Multimodal Models (LMMs).” Chip Huyen, 10 October 2023, https://huyenchip.com/2023/10/10/multimodal.html.
     
  13. “Multimodal AI Models: Understanding Their Complexity.” Addepto, 22 July 2024, https://addepto.com/blog/multimodal-ai-models-understanding-their-complexity/.
     
  14. “Graph Neural Network Series 2 — Convolution on Graphs: Delving into Graph Convolutional Networks.” Medium · Renda Zhang, 10 March 2024, https://rendazhang.medium.com/graph-neural-network-series-2-convolution-on-graphs-delving-into-graph-convolutional-networks-79b42b042f53.
     
  15. “Convolutional Graph Neural Networks with GraphSAGE – Unusually Effective.” Graphable, 2 September 2022, https://www.graphable.ai/blog/convolutional-graph-neural-networks/.
     
  16. “A review of graph neural networks: concepts, architectures, techniques, challenges, datasets, applications, and future directions.” SpringerOpen, 16 January 2024, https://journalofbigdata.springeropen.com/articles/10.1186/s40537-023-00876-4.
     
  17. “Graph Convolutional Neural Network Architecture and its Applications.” XenonStack, 22 May 2023, https://www.xenonstack.com/blog/graph-convolutional-neural-network.
     
  18. Klingler, Nico “Convolutional Neural Networks (CNNs): A 2024 Deep Dive.” viso.ai, 2 January 2024, https://viso.ai/deep-learning/convolutional-neural-networks/.
     
  19.  https://arxiv.org/pdf/2004.03519. Accessed 16 September 2024.
     
  20. “Graph Convolutional Networks | Thomas ....” Thomas Kipf, https://tkipf.github.io/graph-convolutional-networks/. Accessed 16 September 2024.
     
  21. “Multimodal LLMs Struggle with Basic Visual Network Analysis: a VNA Benchmark.” arXiv, 10 May 2024, https://arxiv.org/html/2405.06634v1.
     
  22.  https://arxiv.org/pdf/2312.02783. Accessed 16 September 2024.
     
  23. “Multimodal Reasoning with Multimodal Knowledge Graph.” arXiv, 4 June 2024, https://arxiv.org/html/2406.02030v1.
     
  24. “Exploring Graph Structure Comprehension Ability of Multimodal Large Language Models: Case Studies.” arXiv, 13 September 2024, https://arxiv.org/html/2409.08864v1.
     
  25.  https://arxiv.org/pdf/2409.08864. Accessed 16 September 2024.
     
  26. “Large Language Models on Graphs: A Comprehensive Survey.” arXiv, 1 February 2024, https://arxiv.org/html/2312.02783v2.
     
  27. “Graph Machine Learning in the Era of Large Language Models (LLMs).” arXiv, 30 April 2024, https://arxiv.org/html/2404.14928v1.
     
  28. Romero, Oscar “How to Train and Fine Tune a Multimodal LLM [+ Use Cases].” HatchWorks, 12 September 2024, https://hatchworks.com/blog/gen-ai/train-and-fine-tune-multimodal-llm/.
     
  29.  https://arxiv.org/pdf/2310.07478. Accessed 16 September 2024.
     
  30. Zhang, Jiawei “Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via Prompt Dataset Augmented by ChatGPT.” Papers With Code, https://paperswithcode.com/paper/graph-toolformer-to-empower-llms-with-graph. Accessed 16 September 2024.
     
  31. “What multimodal AI really looks like in ....” Deepgram, https://deepgram.com/learn/multimodal-ai-in-practice. Accessed 16 September 2024.
     
  32.  https://arxiv.org/pdf/2406.16321. Accessed 16 September 2024.
     
  33. Raieli, Salvatore “|GRAPH|LLM|REASONING|GRAPH REASONING|.” Towards Data Science, 12 September 2024, https://towardsdatascience.com/how-the-llm-got-lost-in-the-network-and-discovered-graph-reasoning-e2736bd04efa.
     
  34. “Graph Neural Networks: Merging Deep Learning With Graphs (Part I).” Dataiku, 3 June 2022, https://blog.dataiku.com/graph-neural-networks-merging-deep-learning-with-graphs.
     
  35. “What is the type of extracted CNN features: global or local feature type or both of them.” Stack Overflow, 11 July 2019, https://stackoverflow.com/questions/56991978/what-is-the-type-of-extracted-cnn-features-global-or-local-feature-type-or-both.
     
  36. “Efficient Multimodal Large Language Models: A Survey.” arXiv, 5 May 2024, https://arxiv.org/html/2405.10739v1.
     
  37. swordlidev, “Efficient-Multimodal-LLMs-Survey.” GitHub, 15 May 2024, https://github.com/swordlidev/Efficient-Multimodal-LLMs-Survey.
     
  38. Mahmood, Omer “What are Multimodal models?. Give LLMs ....” Towards Data Science, 16 October 2023, https://towardsdatascience.com/what-are-multimodal-models-fe118f3ef963.
     
  39. “Chapter 7 Interpretability in Graph Neural Networks.” GNNBook@2023, https://graph-neural-networks.github.io/static/file/chapter7.pdf. Accessed 16 September 2024.
     
  40. “A Review of Hybrid and Ensemble in Deep Learning for Natural Language Processing.” arXiv, 8 August 2024, https://arxiv.org/html/2312.05589v2.
     
  41. “Neural Network Applications in E ....” Clerk.io, https://www.clerk.io/blog/neural-network. Accessed 16 September 2024.
     
  42. “Hybrid deep learning approach to improve classification of low-volume high-dimensional data.” BMC Bioinformatics, 7 November 2023, https://bmcbioinformatics.biomedcentral.com/articles/10.1186/s12859-023-05557-w.
     
  43. “Visualization Literacy of Multimodal Large Language Models: A Comparative Study.” arXiv, 19 June 2024, https://arxiv.org/html/2407.10996v1.
     
  44. harpreetsahota204, “Awesome CVPR 2024 Papers, Workshops, Challenges, and Tutorials!.” GitHub, 28 March 2024, https://github.com/harpreetsahota204/awesome-cvpr-2024.
     
  45. “ICML 2024 Papers.” ICML 2024 Conference, https://icml.cc/virtual/2024/papers.html. Accessed 16 September 2024.
     
  46. Daga, Vardhanam “Fine-Tuning, and Running Multimodal LLM ....” Stackademic, 19 December 2023, https://blog.stackademic.com/deploying-fine-tuning-and-running-multimodal-llm-next-gpt-for-any-to-any-content-generation-b6f71dcb8e18.

Similar posts

Soyez informé des news de la BI générative

Soyez le premier à connaître DUKE et le monde de la BI générative.