SystemGetClusterCrossValidationResults (Analysis Services - Exploration de données)

S’applique à : SQL Server 2019 et versions antérieures d’Analysis Services Azure Analysis Services Fabric/Power BI Premium

Important

L’exploration de données a été déconseillée dans SQL Server 2017 Analysis Services et est à présent abandonnée dans SQL Server 2022 Analysis Services. La documentation n’est pas mise à jour pour les fonctionnalités déconseillées et abandonnées. Pour en savoir plus, consultez Compatibilité descendante d’Analysis Services.

Partitionne la structure d'exploration de données dans le nombre spécifié de sections croisées, effectue l'apprentissage d'un modèle pour chaque partition, puis retourne les mesures de précision de chaque partition.

Remarque : cette procédure stockée ne peut être utilisée qu’avec une structure d’exploration de données qui contient au moins un modèle de clustering. Pour valider des modèles non clustering, vous devez utiliser SystemGetCrossValidationResults (Analysis Services - Exploration de données).

Syntaxe

  
SystemGetClusterCrossValidationResults(  
<structure name>,   
[,<mining model list>]  
,<fold count>}  
,<max cases>  
<test list>])  

Arguments

structure d’exploration de données
Nom d'une structure d'exploration de données dans la base de données active.

(obligatoire)

mining model list
Liste séparée par des virgules des modèles d'exploration de données à valider.

Si une liste de modèles d'exploration de données n'est pas spécifiée, la validation croisée est effectuée par rapport à tous les modèles de clustering associés à la structure spécifiée.

Notes

Pour effectuer une validation croisée des modèles qui ne sont pas clustering modèles, vous devez utiliser une procédure stockée distincte, SystemGetCrossValidationResults (Analysis Services - Exploration de données).

(facultatif)

nombre de replis
Entier qui spécifie en combien de partitions séparer le jeu de données. La valeur minimale est 2. Le nombre maximal de replis est maximum integer ou le nombre de cas, la valeur la plus petite étant retenue.

Chaque partition contiendra à peu près ce nombre de cas : nombre maximaldeplis de cas/.

Il n'y a pas de valeur par défaut.

Notes

Le nombre de replis affecte considérablement le temps nécessaire pour effectuer la validation croisée. Si vous sélectionnez un nombre trop élevé, la requête risque de s’exécuter très longtemps et dans certains cas le serveur peut ne plus répondre ou dépasser le délai d’attente.

(obligatoire)

nombre maximal de cas
Entier qui spécifie le nombre maximal de cas qui peuvent être testés.

La valeur 0 indique que tous les cas de la source de données seront utilisés.

Si vous spécifiez un nombre supérieur au nombre réel de cas dans le jeu de données, tous les cas de la source de données sont utilisés.

(obligatoire)

test list
Chaîne qui spécifie les options de test.

Remarque : ce paramètre est réservé à un usage futur.

(facultatif)

Type de retour

Le tableau Type de valeur renvoyée contient des scores pour chaque partition individuelle et des agrégats pour tous les modèles.

Le tableau suivant décrit les colonnes retournées.

Nom de la colonne Description
ModelName Nom du modèle qui a été testé.
AttributeName Nom de la colonne prédictible. Pour les modèles de cluster, toujours null.
AttributeState Valeur cible spécifiée dans la colonne prédictible. Pour les modèles de cluster, toujours null.
PartitionIndex Index de base 1 qui identifie la partition à laquelle s’appliquent les résultats.
PartitionSize Entier qui indique combien de cas ont été inclus dans chaque partition.
Test Type de test qui a été effectué.
Mesure Nom de la mesure retournée par le test. Les mesures de chaque modèle dépendent du type de valeur prévisible. Pour obtenir une définition de chaque mesure, consultez Validation croisée (Analysis Services - Exploration de données).

Pour obtenir la liste des mesures retournées pour chaque type prévisible, consultez Mesures dans le rapport de validation croisée.
Valeur Valeur de la mesure de test spécifiée.

Remarques

Pour retourner des métriques de précision pour l’ensemble du jeu de données, utilisez SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).

En outre, si le modèle d’exploration de données a déjà été partitionné en plis, vous pouvez contourner le traitement et retourner uniquement les résultats de la validation croisée à l’aide de SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).

Exemples

L'exemple suivant montre comment partitionner une structure d'exploration de données en trois replis, puis comment tester deux modèles de clustering associés à la structure d'exploration de données.

La ligne trois du code répertorie les modèles d'exploration de données spécifiques que vous souhaitez tester. Si vous ne spécifiez pas la liste, tous les modèles de clustering associés à la structure sont utilisés.

La ligne quatre du code spécifie le nombre de replis, et la ligne cinq spécifie le nombre maximal de cas à utiliser.

Étant donné qu'il s'agit de modèles de clustering, vous n'avez pas besoin de spécifier un attribut ou une valeur prévisible.

CALL SystemGetClusterCrossValidationResults(  
[v Target Mail],  
[Cluster 1], [Cluster 2],  
3,  
10000  
)  

Exemples de résultats :

ModelName AttributeName AttributeState PartitionIndex PartitionSize Test Mesure Valeur
Cluster 1 1 3025 Clustering Probabilité de cas 0.930524511864121
Cluster 1 2 3025 Clustering Probabilité de cas 0.919184178430778
Cluster 1 3 3024 Clustering Probabilité de cas 0.929651120490248
Cluster 2 1 1289 Clustering Probabilité de cas 0.922789726933607
Cluster 2 2 1288 Clustering Probabilité de cas 0.934865535691068
Cluster 2 3 1288 Clustering Probabilité de cas 0.924724595688798

Configuration requise

La validation croisée n’est disponible que dans SQL Server Entreprise à compter de SQL Server 2008.

Voir aussi

SystemGetCrossValidationResults (Analysis Services - Exploration de données)
SystemGetAccuracyResults (Analysis Services - Exploration de données)
SystemGetClusterCrossValidationResults
SystemGetClusterAccuracyResults (Analysis Services - Exploration de données)