Glossaire du data mining


Glossaire du data mining
Exploration de données
Articles principaux
Exploration de données
Fouille de données spatiales
Fouille du web
Fouille de flots de données
Fouille de textes
Fouille d'images
Fouille audio
Articles annexes
Logiciels de fouille de données
Algorithme de fouille de flots de données
Aide
Glossaire du data mining
Contextes liés
Probabilités et statistiques
Information géographique
Imagerie numérique
Informatique
Linguistique
Internet

L'exploration de données étant à l'intersection des domaines de la Statistique, de l'Intelligence artificielle et de l'Informatique, il semble intéressant de faire un glossaire où on peut retrouver les définitions des termes en français et leur équivalent en anglais classées selon ces trois domaines, en indiquant lorsque c'est utile s'il s'agit d'exploration de données "classique", de fouille de texte , du web, de flots de données ou de fichier audio.

Termes

Informatique

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire informatique utilisé dans le data mining.

A

Algorithme (« Algorithm ») : c'est un ensemble d'étapes, d'opérations, de procédures destinées à produire un résultat.

C

Champs (« Field ») : c'est l'information élémentaire d'une table (colonne de la table) dans une base de données.

F

FP-tree (« Frequent Pattern tree ») : Dans le domaine des règles d'association, c'est la déclinaison d'un arbre trie composé d'une racine , de sous-arbres préfixés par les items, et d'une table des items fréquents. Chaque nœuds contient le nom de l'item, le nombre de transactions contenant l'item dans la portion de l'arbre menant à ce nœud, un lien vers le prochain nœud portant le même nom d'item - ou null s'il n'y en n'a pas. La table des têtes d'items fréquents contient le nom de l'item, et un pointeur vers le premier nœud du FP-tree portant le nom de l'item[1].

M

Métadonnée (« Metadata ») : Données sur les données. Ce sont les descriptions , définitions des données ou des informations.

S

Session (« Session ») : En fouille du web, une session est l'ensemble des séquences d'actions effectuées par un utilisateur sur internet en une seule visite. Par exemple se connecter à internet, lire un article, puis accéder à un site marchand, ajouter un objet à son panier, payer, sortir d'internet.

Système de gestion de base de données (DBMS) (« Database Management System (DBMS) ») : Un système de gestion de base de données est l'ensemble des programmes qui contrôlent la création, l'évolution et l'utilisation d'une base de données.

Système de Gestion de Flux de Données[2] (DSMS) (« Data Stream Management System » (« DSMS »)) : C'est l"ensemble des programmes qui permettent la gestion et l'interrogation des données dans un flot de données. C'est l'équivalent pour les flots de données du DBMS pour les données statiques. Les DSMS sont utilisés dans la gestion des données envoyés par les capteurs, par exemple. On utilise les DSMS dans l'exploration de flots de données où on utilise leur capacité à interroger continûment les données qui arrivent[3].

Data Mining

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique au data mining ainsi que les algorithmes utilisé dans le data mining et issus d'autres domaines[4].

A

Analyse lexicale (« Tokenization ») : En fouille de texte (entre autres domaines) , l'analyse lexicale, est la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots[5].

Arbre de décision (« Decision Tree ») : Une classe de méthodes Statistiques et d'exploration de données (« Data Mining ») qui forment des modèles prédictifs en forme d'arbre.

Arbre de classification (« Classification Tree ») : c'est une technique de data mining utilisée pour prédire l'appartenance de données à des classes de telles manière que les données dans une classe se ressemblent le plus possible alors que les classes elle-mêmes soient le plus dissemblables possible. Les critères de séparation peuvent être le χ², l'indice de Gini, le Twoing, l'Entropie[6],[7]...

Autocorrélation spatiale (« Spatial autocorrelation ») : en fouille de données spatiales, c'est la mesure de la dépendance spatiale. Elle quantifie l'importance avec laquelle un évènement en un lieu, force ou rend plus probable le même évènement en un lieu voisin[8].

C

Cadrage multidimensionnel (« Multidimensional scaling ») : c'est une technique de fouille de données spatiales permettant de représenter visuellement des objets ou des évènements en fonction de leur proximité ou de leur similarité[9],[Géo 1].

Catégorisation de documents (« Categorization of text material ») : En fouille de texte, c'est l'assignation de documents à une ou plusieurs catégories selon son contenu (comme on le fait sur Wikipedia)[10].

CART (« Classification and Regression Trees ») : Un type d'algorithme d'arbre de décision qui automatise le processus d'élagage par validation croisée et autre techniques.

Cartographie de surface de tendances (« Trend Surface mapping ») : En fouille de données spatiales, le but de la cartographie de surface de tendances est de décomposer une série spatiale (un phénomène sur un ensemble de sites) en deux composantes : une tendance ou composante régionale et une erreur ou composante locale. Cette séparation est accomplie en spécifiant et ajustant un modèle de surface de tendance. Il capture la structure régionale sousjacente de la série et laisse une composante locale ne montrant aucune variation visible. Un modèle de surface de tendance est un modèle de régression linéaire dans lequel les variables explicatives sont les coordonnées géographiques de chaque site dans la série spatiale[11],[12].


Classification ou Segmentation (« Clustering ») : C'est la technique qui consiste à regrouper les enregistrements en fonction de leur proximité et de la connectivité à l'intérieur d'un espace à n dimensions. Dans ce cas, c'est une technique d'apprentissage non-supervisée. La Classification est aussi le processus permettant de déterminer qu'un enregistrement appartient à un groupe prédéterminé. Il s'agit alors d'une technique d'apprentissage supervisée. En français on parle aussi de Segmentation (en marketing), de Typologie, de Taxinomie (en zoologie et en biologie), de Nosologie (en médecine)[13]. En Exploration de données, la Classification se déroule en trois phases : une première phase où le modèle est construit sur un échantillon de données pré-classée, une deuxième phase où le modèle doit prédire la classification de données pré-classée ( données sur lesquelles le modèle n'a pas effectué son apprentissage), enfin une troisième phase où le modèle est déployé. En Fouille de flots de données, les données pré-classées et les données non pré-classées sont présentent dans le même flux, les trois phases sont donc confondues[14].

Classification double (« Biclustering ») : En Exploration de données, c'est une technique non supervisée qui vise à segmenter les lignes et les colonnes d'une matrice de données. Très utilisée en bio-informatique, notamment pour l'analyse de l'expression des gènes, cette technique à tendance à s'étendre à beaucoup d'autres domaines, tels que la compression d'image, en fouille du web pour la classification des spammeurs, etc...

CHAID (« Chi-Square Automatic Interaction Detector ») : Un processus qui utilise des tables d'éventualités et le test du chi2 pour créer un arbre.

Co-localisation(« co-location ») : la co-localisation est l'analyse en fouille de données spatiales, consistant à rapprocher deux évènements par leur localisation géographique. Par exemple la présence d'eaux polluées et l'apparition d'une épidémie dans le voisinage[Géo 2].

Contrainte anti-monotone (« Anti-monotone constraint ») : Dans le domaine des règles d'associations, une contrainte[15] est dite anti-monotone[16],[17] (pour l'inclusion) lorsque , étant valide pour un motif, elle est forcément valide pour un sous-ensemble englobant ce motif.

Contrainte monotone (« Monotone constraint ») : Dans le domaine des règles d'associations, une contrainte est dite monotone[16],[17] (pour l'inclusion), lorsque étant valide pour un motif, elle est forcément valide pour un sur-ensemble englobant ce motif.

Validation croisée[10] (« Cross validation ») : C'est le processus d'évaluation de la prédictibilité d'un modèle en comparant le résultat du modèle appliqué sur un échantillon de test avec le résultat obtenu sur l'échantillon d'apprentissage qui a servi à bâtir le modèle. C'est la première étape de validation qui permet ente autre de vérifier qu'il n'y a pas sur-apprentissage.

D

Exemple de diagramme de Voronoï construit à l'aide de la triangulation de Delaunay

Data binning (« Binning ») : Processus par lequel un grandeur continue est discrétisée, découpée en morceaux.

Diagramme de Voronoi (« Voronoi diagram ») : Partition de l'espace définie à partir des triangles de Delaunay, en construisant les points à l'aide des médiatrices des côtés de chaque triangle.

Distance (« Distance ») : Ce sont des fonctions utilisées en classification non supervisée (« Clustering ») pour déterminer les classes et placer les individus dans ces classes.

pour les données continues on peut utiliser les distances issues de la distance de Minlowski définie comme ceci[18] :
si x_i ~ et ~ x_j sont deux vecteurs d'un espace de dimension r on a :
dist(x_i,x_j) = (|x_{i_1} - x_{j_1}|^h + |x_{i_2} - x_{j_2}|^h +...+ |x_{i_r} - x_{j_r}|^h)^\frac{1}{h}
si h = 1, on obtient la distance de Mannhattan ; si h = 2, on a la distance euclidienne.
on utilise aussi la distance de Chebychev :
dist(x_i,x_j) = max(|x_{i_1} - x_{j_1}| + |x_{i_2} - x_{j_2}| +...+ |x_{i_r} - x_{j_r}|)

.

si x_i ~ et ~ x_j sont deux variables aléatoires de même distribution à valeurs dans \R^p, et si S est la matrice de covariance de ces deux variables aléatoires, on définit la distance de Mahalanobis par :
dist(x_i,x_j) = ((x_i - x_j)^t S^{-1} (x_i - x_j))^\frac{1}{2}

.

pour les variables binaires symétriques - celles qui ne prennent que deux valeurs 0 et 1 et toutes deux d'égale importance - on utilise la matrice de confusion
  point xj
  1 0 total
point
xi
1 a b a+b
0 c d c+d
total a+c b+d a+b+c+d
pour avoir
dist(x_i,x_j) = \frac{b+c}{a+b+c+d}

.

Pour les variables binaires asymétriques - celles pour lesquelles une des deux valeurs est plus importante (par convention la valeur 1)
on utilise la distance de Jaccard, soit :
dist(x_i,x_j) = \frac{b+c}{a+b+c}
Dans le cadre de la recherche de similarité entre pages web ou entre documents, on utilise la mesure cosinus, qui permet en fouille du web de déterminer si deux pages - ou deux documents - sont «proches» ou non. Mais ce n'est pas une distance mathématique à proprement parlé.

Dendrogramme (« Dendrogram ») : c'est une représentation graphique d'une classification hiérarchique ascendante[19]

Dépendance spatiale (« Spatiale dependence ») : c'est une notion fondamentale en Analyse spatiale. Elle caractérise le fait qu'une grandeur en un point géographique ou en une région dépend de la même grandeur dans le voisinage de ce point ou de cette région. Par exemple le prix d'un appartement dans une ville dépend du prix des appartements aux alentours. L'amplitude de la dépendance spatiale est mesurée par l'autocorrélation spatiale[20].

E

Echantillonnage spatial (« Spatial sampling ») : La dépendance et l'hétérogénéité, en fouille de données spatiales, autorisent l'utilisation de mesures, en nombre restreint, judicieusement placées dans l'espace étudié en vue d'obtenir des échantillons des grandeurs auxquelles l'analyste s’intéresse[Géo 3],[21].

Élagage (« Pruning ») : C'est la technique qui permet de modifier la structure d'un arbre de décision en remplaçant certaines branches par des feuilles de telles sorte que la justesse de la classification ou de la prédiction en soit améliorée. En général, on emploie cette technique après avoir construit l'arbre en entier.

Ensemble (méthodes) (« Ensemble methods ») : C'est la technique qui permet

  • de combiner différentes méthodes sur un même échantillon, réconcilier les résultats puis appliquer le modèle réconcilé sur des données hors-échantillon,
  • ou bien de paramétrer différentes méthodes sur un échantillon, appliquer les méthodes paramétrées sur des données hors-échantillon et adopter le résultat par vote[22]- ie le résultat adopté par le plus de méthodes est retenu.

La première technique combine les résultats par l'apprentissage et est plutôt liée aux méthodes supervisées, la seconde par consensus et est plutôt liée aux méthodes non-supervisées.

Entropie (« Entropy ») : Souvent utilisée en « Data Mining », elle permet de mesurer le désordre dans un ensemble de données. Pour un ensemble discret de k valeurs on a

E = - \sum_{i=1}^{i=k} p_{i}ln(p_{i})pi est le poids de la valeur i parmi les k valeurs.

L'entropie est utilisée dans les arbres de décision pour choisir la variable maximisant le gain d'information[23] :
Si D est un ensemble de données contenant les attributs \left\{\Alpha_1,\Alpha_2,...\Alpha_{|D|}\right\}, si C est l'ensemble des classes \left\{c_1,c_2,...c_{|C|}\right\}, alors :

E(D) = - \sum_{j=1}^{j=|C|}\Pr(c_j)\log(c_j) et \sum_{j=1}^{j=|C|}\Pr(c_j) = 1Pr(cj) est la probabilité de la classe cj dans D.

Si on utilise Αi pour partitionner D, celui-ci sera divisé en sous-ensembles disjoints \left\{D_1,D_2,...D_{|\Alpha_i|}\right\}| Αi | est le nombre de valeurs de l'attribut Αi.

L'entropie de D après la partition selon Αi est donnée par :

E_{\Alpha_i}(D) = \sum_{j=1}^{j=|\Alpha_i|} \frac{|D_j|}{|D|} E(D_j).

Le gain d'information de l'attribut Αi est égal à :

gain(D,\Alpha_i) = E(D) - E_{\Alpha_i}(D)

et le ratio de gain d'information est égal à

ratiogain(D,\Alpha_i) = \frac{gain(D,\Alpha_i)}{-\sum_{j=1}^{j=|\Alpha_i|}\Bigl( \frac{|D_j|}{|D|} * \log \frac{|D_j|}{|D|}\Bigr)  }

Dans un arbre de décision, chaque nœud est valorisé par l'attribut qui maximise le ratiogain.
Exactitude (en) (« Accuracy ») : L'exactitude d'un système de mesures d'une grandeur est sa capacité à être proche de la vraie valeur de cette grandeur[DM 1].

Extraction de Connaissance à partir des données (« Knowledge Discovery in Databases  ») : une autre expression signifiant Data Mining.

Extraction de Connaissance Omniprésente(« Ubiquitous Knowledge Discovery ») : Domaine dont les objets d'étude[24] :

  • existent dans le temps et l'espace dans un environnement changeant
  • peuvent se mouvoir, et apparaître et disparaître
  • ont des capacités de traitement de l'information
  • ne connaissent que leur environnement spatio-temporel local
  • agissent sur contraintes en temps réel
  • sont capables d'échanger de l'information avec d'autres objets.

F

Fenêtre glissante[25] (« Sliding window ») : Fenêtre temporelle utilisée dans l'exploration des flots de données (« Data stream mining ») pour en extraire des motifs. Les fenêtres peuvent avoir une taille W fixe et la fouille de données s'effectue sur les W dernières transactions, ou sur les W dernières unités de temps, elles peuvent aussi avoir une taille variable, dans la détection de la dérive conceptuelle, par exemple.

Fenêtre à jalon[25] (« Landmark window ») : autre type de fenêtre temporelle utilisée dans l'exploration des flots de données. Ce sont des fenêtres acceptant des transactions depuis un jalon temporel donné.

Fenêtre pondérée[25] (« Damped window ») : encore un autre type de fenêtre temporelle utilisée dans l'exploration des flots de données. Ce sont des fenêtres où les transactions sont pondérées en fonction de leur ancienneté. Ceci peut être réalisé en utilisant un taux de dégénérescence (« Decay rate »).

Fenêtre dilatée (« Tilted time window ») : C'est une fenêtre temporelle, utilisée dans certains algorithmes de fouille de flot de données, où les arrivants les plus récents sont stockés à un niveau de granularité le plus fin, alors que les item(set)s les plus anciens sont stockés à un niveau de granularité plus grossier. On peut utiliser des fenêtre dilatées naturelle, des fenêtres dilatées à échelle logarithmique ou des fenêtres dilatées progressives logarithmique[26].

Flux de clics (« Clickstream ») : Dans le domaine de l'usage du web c'est l'enregistrement de ce sur quoi un utilisateur clique lorsqu'il navigue sur l'internet. Quand l'utilisateur clique sur une page web, l'action est logger sur le poste client ou sur un server web, avec d'autre données telles que le navigateur internet, les routeurs, les serveurs de proxy, etc. L'analyse des flux de clics est utile pour l'analyse de l'activité internet[27],[28] d'un site ou l'analyse des comportements des utilisateurs face au web.


Frontière (« Frontier ») : En fouille de la structure du web, une Frontière est l'ensemble des URL non encore visitées par un robot d'indexation (« Web Crawler »).

G

Gain d'information (« Information gain ») : voir Entropie
Gini (« Gini Metric ») : Un indicateur permettant de mesurer la réduction du désordre dans un ensemble de données induite par la séparation des données dans un arbre de décision. L'indice de diversité de Gini et l'entropie sont les deux manières les plus populaire pour choisir les prédicteurs dans l'arbre de décision CART. Pour un ensemble discret de k valeurs on a

G = \sum_{i=1}^{i=k} p_{i}(1-p_{i})pi est le poids de la valeur i.


H

Hétérogénéité spatiale (« Spatial heterogeneity ») : c'est ainsi qu'est nommée la non stationnarité de la plupart des processus géographiques[29].Une autre manière de le dire : le contexte spatial est différent en chaque point et cette fluctuation spatiale influe sur les relations entre les variables[30],[Géo 4].

I

ID3 (« ID3 ») : ID3 est l'un des plus anciens algorithmes d'arbre de décision
Item (« Item ») : c'est un motif, en exploration de flots de données (« Data stream mining »), c'est un objet dans le domaine des règles d'association, ....

Itemset (« Itemset ») : c'est un motif, en exploration de flots de données (« Data stream mining »), c'est un ensemble d'objets dans le domaine des règles d'association, ....

Interpolation spatiale (« spatial interpolation ») :

« Tout d'abord, qu'est-ce que l'interpolation spatiale ? C'est le processus d'estimation d'une valeur à une localisation (x,y) à partir de valeurs placées à d'autres localisations (x1,y1)...(xn,yn)  »

— SOM, SIG-o-Matic[31]

L'interpolation spatiale est rendue possible et utile par l'hétérogénéité et la dépendance spatiales. Si tout était homogène l'interpolation serait inutile, si tous les phénomènes spatiaux étaient indépendants l'interpolation serait impossible[réf. nécessaire][32].

Interpolation polynomiale globale (« Global Polynomial interpolation ») : c'est une méthode d'interpolation spatiale déterministe utilisant les polynômes sur toute la surface à interpoler[33]. C'est une méthode qui n'utilise pas les voisins.

Interpolation polynomiale locale (« Local Polynomial interpolation ») : c'est une méthode d'interpolation spatiale déterministe utilisant des polynômes sur des voisinages de points[34].

K

Krigeage (« Krigging ») : méthode d'interpolation spatiale utilisant une pondération minimisant la variance de l'estimation[35],[36],[37]. Le krigeage simple ou le krigeage universel[38] est utilisé selon que des hypothèses de stationnarité sont satisfaites ou non.

L

Large Vocabulary Continuous Speech Recognition : En fouille audio, technique permettant de reconnaître des mots dans un flux audio.

M

Une Table de confusion Positive/negative

Distance de Mahalanobis (« Mahalanobis distance ») : voir Distance. Cette distance peut être utilisée pour savoir si une observation est un outlier ou non[39].

Matrice de Confusion[40],[41] (« Confusion Matrix ») : c'est un tableau dans lequel on place les compteurs des valeurs que le test (ou modèle) a prédit correctement dans la case des "Vrai Corrects" ou des "Faux Corrects", celles des valeurs que le test (ou modèle) n'a pas prédit correctement dans la case des "Vrais Incorrects" ou "Faux Incorrects" ( dans l'exemple ci-contre on voit les True Positive, True Negative, False Positive et False Negative). On calcule ensuite l'Exactitude, la Sensibilité ou Rappel, La Précision, la Spécificité pour mesurer la pertinence dut test ou du modèle.
Définitions : Exactitude = \frac{TP+TN}{TP+FP+TN+FN}, Rappel = \frac{TP}{TP+FN}, Précision = \frac{TP}{TP+FP},
Spécificité = \frac{TN}{TN+FP}.

Matrice d'interactions spatiales ou Matrice de poids spatiale ( « Spatial weight matrix ») : Matrice carrée permettant de modéliser l'interaction entre deux points géographiques en fonction de l'importance de leur interaction. En fouille de données spatiales les matrices peuvent être de contiguïté - modélisant l'importance de l'interaction en fonction de la proximité [42] - ou de gravité, modélisant l'interaction en fonction de la «masse» du phénomène observé, comme par exemple les flux migratoires modélisés par E.Ravenstein en 1885[43].

Motif séquentiel[44] (« Sequential pattern ») : c'est un motif, en fouille de données et en exploration de flots de données. Ce sont des motifs tels qu'on les trouvent dans des règles d'associations mais assortis de contraintes temporelles. Par exemple[45], les clients qui achètent un ordinateur sont susceptibles d'acheter tel ou tel accessoire dans un laps de temps déterminé après l'achat du premier appareil. Les motifs séquentiels peuvent être recherchés dans plusieurs transactions effectuées dans des périodes de temps différentes, alors que les règles d'associations sont recherchées dans la même transaction.

Mesure cosinus ( « Cosine mesure ») : en fouille du web, c'est une mesure de la similarité de deux pages. Si p1 = (p11,p12,p1n) et p2 = (p21,p22,p2n)pij sont les fréquences des mots en commun aux pages p1 et p2, alors la similarité des pages p1 et p2 est mesurée par :  \cos (\alpha) = \frac{p1.p2}{||p1||.||p2||}, soit  \cos (\alpha) = \frac{\sum_{k=1}^n p_{1k}.p_{2k}}{\sqrt[2]{\sum_{k=1}^n p_{1k}^2}.\sqrt[2]{\sum_{k=1}^n p_{2k}^2}}. (voir exemple graphique [46])

N

N-Gramme (« N-Gram ») : technique, employée en fouille de texte, de découpage des textes en sous-séquences de longueur N[47].

P

Pondération inverse à la distance ( « Inverse distance weighting ») : c'est une des méthodes déterministes d'interpolation spatiale, qui consiste à estimer la valeur d'une grandeur en un point en fonction des valeurs connues de cette même grandeur en différents points voisins, en pondérant chaque valeur par l'inverse de la distance entre le point dont la valeur est à estimer et les différents points voisins[48].

Précision ( « Precision ») : La précision d'un système de mesures d'une grandeur est sa capacité à donner des résultats proches lorsqu'ils sont répétés sous conditions inchangées.

Première loi de Tobler ( « Tobler's first law ») : Assez éloignée de la fouille de données, cette entrée explique la nature particulière de la fouille de données spatiales et le concept d'autocorrélation spatiale.

« « Everything is related to everything else, but near things are more related than distant things. »  »

— Waldo Tobler[49]

.

Q

QUEST ( « QUEST ») : un arbre de décision/classification développé par Wei-Yin Loh et Yu-Shan Shih en 1997[50]. QUEST est utilisé dans le package lohTools[51] du logiciel R.

R

Page Racine (« Seed page ») : En fouille de la structure du web, c'est une page initiale, permettant l'exploration de la structure de l'internet ou d'une partie de celle-ci par un robot d'indexation ( nommé aussi « Spider » ou « Web Crawler »).

Recouvrement (« Overlay ») : En fouille de données spatiales, il s'agit du processus consistant à joindre et visualiser simultanément des données, provenant de sources diverses, localisées dans le même espace géographique[52],[Géo 5].

Règle d'association (« Association Rule ») : C'est une technique de data mining utilisée pour décrire des relations entre des objets (item), des ensembles d'objets (itemset) ou des évènements[10]. L'algorithme A-priori est un algorithme efficace et populaire pour trouver ce type de règles d'association. Exemple les associations entre les objets achetés dans un supermarché. Une règle d'association est de la forme Si ceci alors cela. Plus formellement, soit Ι = {i1,i2,...,im} un ensemble d'items. Soit Τ = {t1,t2,...,tn} un ensemble de transactions, telles que ti soit un sous-ensemble de Ι (ie t_i  \subseteq \Iota). Une règle d'association s'exprime sous la forme :

 \Chi  \rightarrow Y , où \Chi \in \Tau , Y \in \Tau (ce qui est équivalent à \Chi  \subseteq \Iota , Y \subseteq \Iota ), et \Chi \cap Y = \empty

Χ est un ensemble appelé itemset.

Règle d'association spatiale (« Spatial Association Rule ») : c'est une règle d'association où X ou Y contient des prédicats spatiaux - de types distance, direction, topologique - tels que proche, éloigné, contient, contigu, etc. Alors que dans une règle d'association chaque occurrence (lignes dans une Bdd géographique) de l'association est une transaction, en analyse spatiale une occurrence représente un objet spatial (Paris, Londres,.. ) d'un type d'objet spatial (ville, pays, bâtiment,..) analysé selon les prédicats (colonnes dans une Bdd géographique)[53].

S

Segmentation (« Clustering ») : Technique de classification non supervisée permettant de ranger des données dans des classes non prédéfinies[54].

Segmentation en analyse de texte (« Clustering in text analysis ») : En fouille de texte, il s'agit d'une segmentation non supervisée pour l'organisation de documents, ou de textes dans des documents, parfois appelée aussi filtrage, impliquant des algorithmes comme les arbres de classification ou l'algorithme SVM[10].

Stationnarité(« Stationarity ») : En fouille de données spatiales, les hypothèses de stationnarité concernent l'espérance mathématique d'un processus (stationnarité d'ordre un), et la covariance (stationnarité d'ordre deux). Si Ζ(x) est un champ aléatoire, on dit que Ζ(x) est stationnaire au premier ordre si Ε[(Ζ(x)] = Cste pour tout x. Ce champ est stationnaire de second ordre s'il est stationnaire de premier ordre et si Cov(Ζ(x),Ζ(x + h)) = C(h)[55].

T

La triangulation de Delaunay et les cercles circonscrits aux triangles

Triangulation de Delaunay (« Delaunay Triangulation ») : Partition de l'espace de points créée en joignant les plus proches voisins de chaque point de telle manière qu'aucun point ne soit contenu dans le cercle circonscrit de chaque triangle[56].

V

Variable catégorielle ( « categorical variable ») : variable pouvant prendre un nombre restreint de valeurs, comme les couleurs par exemple. On parle aussi de variable discrète.

Variable continue ( « Continuous variable ») : variable pouvant prendre un nombre infini de valeurs, comme un prix par exemple.

Variable dépendante ( « Dependent variable ») : variable cible ou variable à expliquer dont on veut estimer les valeurs en fonctions d'autres variables dites explicatives. On parle aussi de variable cible ou variable réponse[57] .

Variable indépendante ( « Independent variable ») : variable explicative permettant d'estimer une variable cible. On parle aussi de variable explicative, de contrôle, réponse[57].

Voisinage (« Neighborhood ») : c'est l'ensemble des zones (ou des points) proches de la zone (ou du point) de référence. En termes de contiguïté, dans le cadre de grilles (raster ou autres), le voisinage de 8 cellules est appelé voisinage de la Reine, celui des 4 cellules Nord-Sud et Ouest-Est est dénommé voisinage de la Tour et celui des angles est appelé voisinage du Fou. Le voisinage du Fou complété par le voisinage de la Tour revient au voisinage de la Reine[58].

Variogramme (« Variogram ») : notée γ(h), cette fonction est une mesure de la dissimilarité[59] ou de la continuité[60] en analyse spatiale. Si Ζ(x) est une variable aléatoire au point x, alors le variogramme est défini par :

  \gamma (h) = \frac{1}{2} \Epsilon[(\Zeta(x+h) - \Zeta(x))^2]

Intelligence artificielle

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique à l'intelligence artificielle et les concepts issus de l'IA et utilisés dans le data mining.

A

Algorithme génétique[61] (« Genetic algorithm ») : C'est un algorithme de recherche heuristique inspiré de l'évolution naturelle. Il est employé dans le domaine de la recherche de solutions approchées dans les problèmes d'optimisation. Il utilise des techniques comme l'héritage, la mutation, la sélection et l'enjambement.

Apprentissage incrémental (« incremental learning ») : Un classifieur utilise l'apprentissage incrémental quand, lors de l'arrivée de nouveaux items, il est capable d'évoluer sans pour cela que l'apprentissage soit à refaire entièrement[62].

Apprentissage supervisé (« Supervised learning ») : c'est une stratégie d'apprentissage qui consiste à apprendre par l'exemple. Un enseignant (quelqu'un qui apprend quelque chose au système) aide le système à construire le modèle recherché en lui fournissant les classes et les exemples qui caractérisent chaque classe. Le système en déduit les descriptions de chaque classe pour que les descriptions et les classes forment les règles de classification qui serviront à classer les nouveaux arrivants[63].

Apprentissage non supervisé (« Nonsupervised learning ») : c'est une stratégie d'apprentissage qui consiste à apprendre par l'observation et la découverte. Le système se débrouille seul avec les arrivants, aucune classe n'est fournie; il doit donc analyser les exemples et découvrir les schémas et les caractéristiques de chaque arrivant et les classer selon ces caractéristiques[63].

B

Bagging (« Bagging ») : ou « Bootstrap aggregating » est la technique qui consiste à la création de plusieurs modèles sur des échantillons « bootstrap », puis à combiner les résultats. Cette technique est destinée à l'amélioration de l'exactitude[DM 2] de la classification et/ou de la prédiction d'un modèle en apprentissage automatique.

D

Dérive conceptuelle (« Concept drift ») : En Fouille de flots de données, et en Apprentissage automatique la dérive conceptuelle fait référence aux changements - dans les propriétés statistiques des variables cibles, en général - qui interviennent au cours du temps de manière imprévue[64].

F

Feuille (« leaf ») : Dans un arbre de classification, tout nœud qui n'est pas segmenté.

Forêt d'arbres décisionnels (« Random forest ») :

« Les Forêts d'arbres décisionnelles sont formées d'une combinaison d'arbres estimateurs tels que chaque arbre dépend des valeurs d'un vecteur aléatoire échantillonné indépendamment et ayant la même distribution pour tous les arbres de la forêt. »

— Leo Breiman, Random Forests[65]


I

Intelligence artificielle (« Artificial Intelligence ») : Le domaine scientifique qui a pour but la création de comportements intelligents dans une machine.

N

Nœud racine (« Root node ») : le début d'un arbre de décision; le nœud racine détient l'ensemble des données avant qu'elles ne soient découpées dans l'arbre.

R

Règle de Hebb (« Hebbian Learning ») : Cette règle d'apprentissage des réseaux de neurones précise que les poids entre deux neurones augmentent quand ils sont excités simultanément et décroissent dans le cas contraire.
Réseaux de Kohonen (« Kohonen Networks ») : Un type de réseau de neurones où la localisation d'un nœud est calculée par rapport à ses voisin; la localité d'un nœud est très importante dans l'apprentissage; les réseaux de Kohonen sont souvent utilisés en clustering.
Réseaux Neuronaux (« Neural Network ») : Un modèle basé sur l'architecture du cerveau. Un réseau Neuronal consiste en multiples unités de calcul simples connectés par des poids adaptatifs.
Réseaux Neuronaux à base radiale « Radial basis function neural Network ») : c'est un réseau neuronal (voir ci-dessus) utilisant une couche cachée constituée de fonctions à base radiale[66],[67], et une sortie combinaison linéaire des sorties des fonctions à base radiale. Ils sont caractérisés par un apprentissage rapide et un réseau compact[68],[69].
Résumés (« Summaries ») : En Fouille de flots de données c'est un ensemble de techniques permettant d'explorer le flot de données sur un nombre restreints d'éléments sans pour cela ralentir le flot, et dans un système limité en mémoire et en puissance. Les techniques se nomment échantillonnage aléatoire, résumé (sketching), synopsis ( histogramme, analyses par ondelettes, quantiles et fréquences)[70],[71].
Rétro-Propagation (« Back Propagation ») : Un des algorithmes d'apprentissage les plus usités pour la préparation des réseaux de neurones


Statistique

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique aux statistiques et les concepts issus des statistiques et utilisés dans le data mining.

A

Analyse des données («  Exploratory Data Analysis ») : L'analyse des données est le processus qui consiste à examiner, nettoyer, transformer, et modéliser les données dans le but d'en extraire de l'information utile, de suggérer des conclusions, de prendre des décisions. Le Data mining est une technique spécifique d'analyse des données qui se concentre sur la modélisation et l'extraction de connaissances dans un but prédictif plutôt que descriptif, bien qu'une partie du processus de data mining nécessite la description des données.
Analyse Factorielle (« Factor Analysis ») : voir Analyse factorielle.

B

Boostrapping[72] («  Bootstrap method ») : C'est une méthode de ré-échantillonnage permettant d'obtenir une distribution d'échantillons pour un paramètre, au lieu d'une seule valeur de l'estimation de ce paramètre.

C

Colinéarité (« Collinearity ») : Deux variables sont colinéaires si elles sont corrélées sans qu'une relation de cause ne soit établie entre elles.

Courbe de lift (« lift chart ») : c'est un résumé visuel de l'utilité des modèles statistiques et de data mining pour la prédiction d'une variable catégorielle. Elle sert à mesurer la performance d'un modèle. (voir courbe ROC et indice de Gini)
Courbe ROC[40] (« ROC curve ») : La courbe ROC (« Receiver Operating Characteristics ») nous vient des ingénieurs US du traitement du signal qui l'ont inventée pendant la seconde guerre mondiale et depuis elle a été utilisée en médecine, radialogie, psychologie et maintenant en data mining. Sur l'axe des Y on représente les vrais évènements détectés et sur l'axe des X les faux évènements détectés (les erreurs de détection). Elle sert à mesurer la performance d'un estimateur ou d'un modèle[73].

E

Ensemble flou (« Fuzzy Set ») : Ils servent à modéliser la représentation humaines des connaissances[74].

F

Fonction base (« basis function ») : Fonction impliquée dans l'estimation de la Régression multivariée par spline adaptative (MARS). Ces fonctions forment une approximation des relations entre les estimateurs et les variables estimées[75].


G

Indice de Geary (« Geary index » ou « Geary's C ») : indice de mesure de l'autocorrélation spatiale en fouille de données spatiales[Géo 6]. Il s'exprime comme le rapport de la variance locale (celle des mesures entre voisins de l'échantillon) à la variance totale des mesures de l'échantillon[76]. Si (xi)(i = 1:n) est un échantillon de mesures spatiales, l'indice c de Geary s'exprime ainsi :

c = \frac{\frac{1}{2\sum_{i \neq i}c_{ij}}\sum_{i \neq j} c_{ij} (x_{i}-x_{j})^2}{\frac{1}{n-1}{\sum_{i = 1}^n (x_{i}- \bar x)^2}}

cij = 1 si i et j sont voisins, cij = 0 sinon

.

H

Inégalité de Hoeffding (« Hoeffding’s inequality ») : L'inégalité de Hoeffding sert à la mesure de l'erreur d'un estimateur.
Définition : Soient X1,X2,...,Xn,n variables aléatoires indépendantes, de distribution identique, telles que 0 \le X_i \le 1 tendant vers une variable aléatoire X , Alors

\Pr [ |  \frac 1n \sum_{i=1}^n X_i -  \Epsilon [ X ] | > \epsilon ] \le \delta = 2\exp(-2n \epsilon ^2)


Théorème : Supposons que  n \ge \frac 1{2\epsilon^2}\log \frac 2\delta Alors, avec une probabilité supérieure ou égale à 1 − δ, la différence entre la moyenne empirique \frac 1n \sum_{i=1}^n X_i et la moyenne Ε[X] est au plus égale à \epsilon.

  • la précision δ nous dit de combien nous sommes éloigné de la moyenne réelle de la variable aléatoire X
  • la confiance \epsilon nous dit avec quelle probabilité nous nous trompons[77].

I

Indépendance statistique (« Independence (statistical) ») : Deux évènements sont indépendants s'ils n'ont aucune influence l'un sur l'autre.

X et Y sont deux variables indépendantes  \Leftrightarrow \Pr (X \cap Y) = \Pr (X) \cdot \Pr (Y).


J

Jackknife[72] («  Jackknife method ») : C'est une méthode de ré-échantillonnage, analogue à celle du bootstrapping, qui diffère de celle-ci seulement par la méthode de sélection des différents échantillons.

L

Logique floue (« Fuzzy Logic ») : La logique floue est une technique, formalisée par Lotfi Zadeh, utilisée en intelligence artificielle. Elle s'appuie sur les ensembles flous.

M

Modèle (« Model ») : Une description qui explique et prédit convenablement des données pertinentes mais qui est généralement moins volumineuse que les données elles-mêmes.

Modèle de Markov caché (« HMM » ou « Hidden Markov Model ») : C'est un processus qui permet de déterminer les paramètres cachés d'un système à modéliser supposé être un processus de Markov. Les Modèles de Markov cachés ont été utilisés pour la première fois dans la reconnaissance de la parole dans les années '70, il est aussi utilisé en fouille de texte[78].

Indice de Moran (« Moran index » ou « Moran's I ») : indice de mesure de l'autocorrélation spatiale en fouille de données spatiales[Géo 7]. Il s'exprime comme le rapport de la covariance locale (celle des mesures entre voisins de l'échantillon) à la variance totale des mesures de l'échantillon[76]. Si (xi)(i = 1:n) est un échantillon de mesures spatiales, l'indice I de Moran s'exprime ainsi :

I = \frac{\frac{1}{\sum_{i \neq i}c_{ij}}\sum_{i \neq j} c_{ij} (x_{i}-\bar x)(x_{j}-\bar x)}{\frac{1}{n}{\sum_{i = 1}^n (x_{i}- \bar x)^2}}

cij = 1 si i et j sont voisins, cij = 0 sinon

.

R

Robustesse (« Robustness ») : Un modèle statistique, un algorithme, un processus est dit robuste s'il produit des résultats justes en moyenne et s'il n'est pas sensible aux données ayant des problèmes. Dans le cas contraire on parle de modèle instable.

Indice de Ripley (« Rispley'K ») : créé par Brian Ripley, il permet d'analyser les motifs de points, effectuer des tests d'hypothèses, estimer des paramètres et ajuster des modèles[79],[Géo 8].

K(r) =  \frac{1}{n}\sum_{i=1}^n \frac{\Nu _{i}(r)}{\lambda}

Νi(r) est le nombre de points / évènements dans un cercle de rayon r centré sur le point i[80].

S

Statistique bayésienne (« Bayesian statistics ») : Une approche des statistiques fondée sur la loi de Bayes. Le théorème de Bayes exprime la probabilité de l'évènement A connaissant l'évènement B de la manière suivant :

\Pr (A|B) = \frac{\Pr (B | A) \Pr (A)}{\Pr (B)}

T

Taux d'erreur (« Error Rate ») : Un nombre indiquant l'erreur faite par un modèle prédictif.
Test d'hypothèse (« Hypothesis Testing ») : voir Test d'hypothèse

Voir aussi

Notes

Fouilles de données (en général)

  1. voir Précision
  2. voir Exactitude ci-dessus



Fouilles de données Géographiques

  1. voir Voisinage
  2. voir Voisinage
  3. voir aussi Interpolation spatiale dans ce glossaire
  4. Voir la dépendance spatiale aussi pour une autre caractéristique de l'espace géographique.
  5. Voir aussi Co-Localisation
  6. voir Indice de Moran et Indice de Ripley
  7. voir Indice de Geary et Indice de Ripley
  8. voir Indice de Geary et Indice de Moran



Autres


Références

  1. [PDF](en)Zengyou He, Xiaofei Xiu, Schengchung Deng, « A FP-Tree based approach for mining all correlated pairs without candidate generator ». Consulté le 17 août 2011
  2. [PDF](en)Brian Babcock, Shivnath Babu, Mayur Datar, Rajeev Motwani, Jennifer Widom, « « Models and Issues in Data Stream Systems » ». Consulté le 8 octobre 2011
  3. [PDF](en)Chih-Hsiang Lin, Ding-Ying Chiu, Yi-Hung Wu, Arbee L. P. Chen, « «  Mining Frequent Itemsets from Data Streams with a Time-Sensitive Sliding Window » ». Consulté le 8 octobre 2011
  4. Glossaire anglais-Français
  5. (en)Searsr, « Text mining ». Consulté le 8 octobre 2011
  6. (en)Salford Systems, « Do Splitting Rules Really Matter? »
  7. (en)Leo Breiman, « « Technical Note: Some Properties of Splitting Criteria » »
  8. [PDF](en)Arthur J. Lembo, Jr, « « Spatial Autocorrelation, Moran's I Geary's C  » »
  9. Stephen P. Borgatti, « Multidimensional Scaling », 1997. Consulté le 14 août 2011
  10. a, b, c et d Robert Nisbet, John Elder, Gary Miner, Handbook of Statistical Analysis & Data Mining Applications edition 2009, Academic Press, Page 789 et suivantes
  11. [PDF](en)N. Wrigley, « « Probability Surface mapping. An Introduction with Examples and Fortran Programme » », 1977. Consulté le 8 octobre 2011
  12. SOM, « Surface de Tendances Polynomiales ». Consulté le 8 octobre 2011
  13. Stéphane Tufféry, Data mining et Statistique décisionnelle
  14. Hanady Abdulsalam, Streaming Random Forests
  15. Arnaud Soulet,Découverte de motifs sous contraintes
  16. a et b Mohammad El-Ha jj, Osmar R. Za¨ıane, Bi-Directional Constraint Pushing in Frequent Pattern Mining
  17. a et b Jérémy Besson, Céline Robardet,Jean-François Boulicaut, Un algorithme générique d'extraction de bi-ensembles sous contraintes dans des données booléennes
  18. Bing Liu, Web Data Mining, Springer, Edition 2010, pages 135-138
  19. Maxime Chambreuil,(exemples de Dendrogrammes) Classification Hiérarchique Ascendante
  20. Miller et Han 2009, p. 11
  21. [PDF](en)Jennifer A. Miller, « Sampling Choices and Implications », 2009. Consulté le 16 août 2011
  22. SOM, « Les types d'interpolation spatiales ». Consulté le 16 aout 2011
  23. Penn State - College of Earth and mineral Sciences, « Interpolation », 2010. Consulté le 28 août 2011
  24. (en)sppsr.ucla.edu, « « A few Interpolation methods » », 2007. Consulté le 28 août 2011
  25. (en) Arcgis Resource center, « « How local polynomial interpolation works » », 2011. Consulté le 29 août 2011
  26. [PDF]Sophie Baillargeon, « Le krigeage : revue de la théorie et application à l'interpolation spatiale de données de précipitations », 2005. Consulté le 9 septembre 2011
  27. [PDF](en)Geoff Bohling, « « Kriging » », 2005. Consulté le 8 septembre 2011
  28. Ferenc Sárközy, « « The kriging » », 1998. Consulté le 8 septembre 2011
  29. Xavier Guyon, « Statistique spatiale », 2007. Consulté le 9 septembre 2011
  30. statsoft , Mahalanobis distance
  31. a et b César de Souza ,Discriminatory Power Analysis by Receiver-Operating Characteristic Curves
  32. R. Eisner, Basic Evaluation Measures for Classifier Performance
  33. [PDF]Hubert Jayet, « Économétrie et données spatiales », 2001, p. 109. Consulté le 14 août 2011
  34. Claude Grasland, « Les Modèles d'interaction Spatiale », 2004. Consulté le 14 août 2011
  35. Rakesh Agrawal, Ramakrishnan Srikant, Mining Sequential Patterns
  36. F. Masseglia, M. Teisseire, P. Poncelet, Extraction de motifs séquentiels
  37. Sophie Rosset ,Mesure Cosinus
  38. C. Justicia de la Torre, M.J. Martin-Bautista, D. Sanchez, M.A. Vila, Text Mining: Intermediate Forms for Knowledge Representation
  39. (en)Ferenc Sárközy, « « GIS functions - Interpolation » », 1998. Consulté le 28 août 2011
  40. (en)Karl Yorgason, « First Law of Geography ». Consulté le 28 aout 2011
  41. Wei-Yin Loh, Yu-Shan Shih Split Selection Methods for Classification Trees
  42. Vincent Zoonekynd Vincent Zoonekynd's Blog, Fri, 16 Oct 2009: Use R 2009 Conference, page 5
  43. (en)volusia county government, « Spatial Overlay ». Consulté le 14 aout 2011
  44. [PDF](en)Vania Bogorny, « Enhancing Spatial Association Rule Mining in a Geographic Databases ». Consulté le 8 octobre 2011
  45. Philippe Leray, Le Clustering en 3 leçons
  46. [PDF]Xavier Guyon, « statistique spatiale », 2007. Consulté le 11 septembre 2011
  47. (en)Nicolas Dumoulin, Michaël Ortega, « Triangulation de Delaunay ». Consulté le 7 octobre 2011
  48. a et b Stéphane Tufféry, Data Mining et statistique décisionnelle Troisième édition page 297, aux éditions Technip
  49. (en)M.Sawada, « Global Spatial Autocorrelation Indices - Moran's I, Geary's C and the General Cross-Product Statistic ». Consulté le 14 aout 2011
  50. [PDF](en)Geoff Bohling, « « Introduction to Geostatistics and Variogram Analysis » », 2005. Consulté le 10 septembre 2011
  51. [PDF]Denis Marcotte, « Le Variogramme », 2011. Consulté le 10 septembre 2011
  52. Genetic algorithm on Wiki
  53. Gregory Hulley, Tshilidzi Marwala, Evolving Classifiers: Methods for Incremental Learning
  54. a et b Kapil Wankhade, Snehlata Dongre, « Data Streams Mining, Classification and Application », édition 2010 Lambert, page 9
  55. Alexey Tsymbal, The problem of concept drift: definitions and related work
  56. Leo Breiman, Random Forests
  57. Bradley John Charles Baxter,The interpolation theory of radial basis functions
  58. Cartier-Michaud Thomas,Teffah Zakaria Introduction aux fonctions de base radiale
  59. S. Haykin, Neural Networks: A comprehensive Foundation, New York : Macmillan Publishing, 1994
  60. M.Boukadoum, Réseaux de neurones à base radiale
  61. Mohamed Medhat Gaber, Arkady Zaslavsky, Shonali Krishnaswamy, Mining Data Streams: A Review
  62. Dariusz Brzeziński, Mining data streams with concept drift
  63. a et b Peter Young, Jackknife and Bootstrap Resampling Methods in Statistical Analysis to Correct for Bias
  64. César de Souza ,Discriminatory Power Analysis by Receiver-Operating Characteristic Curves (Part 2 of 2: C# Source Code)
  65. Ensembles flous
  66. Christine Thomas-Agnan, Estimateurs splines
  67. a et b [PDF]Arnaud Banos, « De l’exploration à la prospective : essai de généralisation spatiale de la demande de transport », 2011. Consulté le 17 septembre 2011
  68. Justin Domke, Learning Theory
  69. Krishnalal G, S Babu Rengarajan, K G Srinivasagan, A New Text Mining Approach Based on HMM-SVM for Web News Classification
  70. Philip M. Dixon, « « Ripley’s K function » », 2011. Consulté le 18 septembre 2011
  71. [PDF](en)Maria A. Kiskowski, John F. Hancock,Anne K. Kenworthy, « « On the Use of Ripley’s K-Function and Its Derivatives to Analyze Domain Size » », 2009. Consulté le 18 septembre 2011

Bibliographie

  • (en)Harvey Miller et Jiawei Han, Geographic Data Mining and Knowledge Discovery, Boca Raton, CRC Press, 2009, 458 p. (ISBN 978-1-4200-7397-3) .Ouvrage utilisé pour la rédaction de l'article



Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Glossaire du data mining de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Exploration de données — Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Fouille de flots de données — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Fouille de données spatiales — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Fouille du web — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Fouille d'images — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Logiciels de fouille de données — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Algorithme de fouille de flots de données — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • Structures de données dans un SIG — Un Système d information géographique contient des données alphanumériques et des données spatiales. Dans un SIG, les données sont stockées soit sous format vectoriel, soit sous format raster[1],[2]. Le format vectoriel gère les points, les… …   Wikipédia en Français

  • Logiciels de fouilles de données spatiales — Les Logiciels de fouilles de données spatiales permettent de stocker , de requêter, et de fouiller les données spatiales[1]. Sommaire 1 Base de données 2 GIS 3 Fouille de données …   Wikipédia en Français

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français