SystemGetClusterCrossValidationResults (Analysis Services – Data Mining)

 

Betrifft: SQL Server 2016

Partitioniert die Miningstruktur in die angegebene Anzahl an Querschnitten, trainiert ein Modell für jede Partition und gibt anschließend Genauigkeitsmetriken für jede Partition zurück.

Hinweis Diese gespeicherte Prozedur kann nur mit einer Miningstruktur verwendet werden, die mindestens ein Clustering-Modell enthält. Um Cross-nicht-Clustermodelle zu überprüfen, verwenden Sie SystemGetCrossValidationResults & #40; Analysis Services – Datamining & #41;.

  
SystemGetClusterCrossValidationResults(  
<structure name>,   
[,<mining model list>]  
,<fold count>}  
,<max cases>  
<test list>])  

Miningstruktur
Name einer Miningstruktur in der aktuellen Datenbank.

(erforderlich)

Liste der Mining-Modell
Durch Trennzeichen getrennte Liste von Miningmodellen, die überprüft werden sollen.

Wenn keine Liste mit Miningmodellen angegeben wird, erfolgt die Kreuzvalidierung für alle Clustering-Modelle, die mit der angegebenen Struktur verknüpft sind.

System_CAPS_ICON_note.jpg Hinweis


Um Cross-Modelle zu überprüfen, die keine clustering-Modelle sind, müssen Sie eine separate gespeicherte Prozedur verwenden SystemGetCrossValidationResults & #40; Analysis Services – Datamining & #41;.

(Optional)

Foldanzahl
Ganzzahliger Wert, der die Anzahl der Partitionen angibt, in die Dataset geteilt werden soll. Der Mindestwert beträgt 2. Die maximale Anzahl von Aufteilungen ist maximum integer oder die Anzahl von Fällen, wobei der jeweils niedrigere Wert gilt.

Jede Partition enthält in etwa diese Anzahl von Fällen: maximale Anzahl von Fällen/foldanzahl.

Es gibt keinen Standardwert.

System_CAPS_ICON_note.jpg Hinweis


Die Anzahl der Aufteilungen wirkt sich erheblich auf die Zeit aus, die für die Kreuzvalidierung benötigt wird. Wenn Sie eine zu hohe Zahl auswählen, kann die Ausführung der Abfrage sehr lang dauern, und in manchen Fällen reagiert der Server möglicherweise nicht mehr oder ein Timeout tritt ein.

(erforderlich)

Max. Anzahl von Fällen
Ganzzahliger Wert, der die maximale Anzahl von Fällen angibt, die getestet werden können.

Der Wert 0 gibt an, dass alle Fälle in der Datenquelle verwendet werden.

Wenn Sie eine Zahl angeben, die größer ist als die tatsächliche Anzahl der Fälle im Dataset ist, werden alle Fälle in der Datenquelle verwendet.

(erforderlich)

die Testliste
Eine Zeichenfolge, die Testoptionen angibt.

Hinweis Dieser Parameter ist für die zukünftige Verwendung reserviert.

(Optional)

Die Tabelle mit den Rückgabetypen enthält Bewertungen für jede einzelne Partition und Aggregate für alle Modelle.

In der folgenden Tabelle werden diese zurückgegebenen Spalten beschrieben.

SpaltennameBeschreibung
ModelNameName des Modells, das getestet wurde.
AttributeNameDer Name der vorhersagbaren Spalte. Bei Clustermodellen immer null.
AttributeStateEin angegebener Zielwert in der vorhersagbaren Spalte. Bei Clustermodellen immer null.
PartitionIndexEin 1-basierter Index, der angibt, für welche Partition die Ergebnisse gelten.
PartitionSizeEin ganzzahliger Wert, der angibt, wie viele Fälle in jeder Partition enthalten waren.
TestDer Typ von Test, der ausgeführt wurde.
MeasureDer Name des Measures, der vom Test zurückgegeben wurde. Measures für die einzelnen Modelle richten sich nach dem Typ des vorhersagbaren Werts. Eine Definition der einzelnen Measures finden Sie unter Kreuzvalidierung & #40; Analysis Services – Datamining & #41;.

Eine Liste der für die einzelnen vorhersagbaren Typen zurückgegebenen Measures, finden Sie unter Measures in der Kreuzvalidierungsbericht.
WertDer Wert des angegebenen Testmeasures.

Um genauigkeitsmetriken für das gesamte Dataset zurückzugeben, verwenden Sie SystemGetClusterAccuracyResults & #40; Analysis Services – Datamining & #41;.

Auch wenn das Miningmodell bereits in Aufteilungen partitioniert wurde, Sie können Verarbeitung umgehen und nur die Ergebnisse der übergreifenden Überprüfung mithilfe von SystemGetClusterAccuracyResults & #40; Analysis Services – Datamining & #41;.

Das folgende Beispiel veranschaulicht, wie man eine Miningstruktur in drei Aufteilungen partitioniert und dann zwei Clustering-Modelle testet, die mit der Miningstruktur verknüpft sind.

In Zeile 3 des Codes sind die spezifischen Miningmodelle aufgelistet, die Sie testen möchten. Wenn Sie die Liste nicht angeben, werden alle der Struktur zugeordneten Clustering-Modelle verwendet.

In Zeile 4 des Codes ist die Anzahl der Aufteilungen und in Zeile 5 die Höchstzahl der zu verwendenden Fälle angegeben.

Da es sich hierbei um Clustering-Modelle handelt, brauchen Sie kein vorhersagbares Attribut oder Wert anzugeben.

CALL SystemGetClusterCrossValidationResults(  
[v Target Mail],  
[Cluster 1], [Cluster 2],  
3,  
10000  
)  

Beispielergebnisse:

ModelNameAttributeNameAttributeStatePartitionIndexPartitionSizeTestMeasureWert
Cluster 113025ClusteringFallwahrscheinlichkeit0.930524511864121
Cluster 123025ClusteringFallwahrscheinlichkeit0.919184178430778
Cluster 133024ClusteringFallwahrscheinlichkeit0.929651120490248
Cluster 211289ClusteringFallwahrscheinlichkeit0.922789726933607
Cluster 221288ClusteringFallwahrscheinlichkeit0.934865535691068
Cluster 231288ClusteringFallwahrscheinlichkeit0.924724595688798

Übergreifende Überprüfung steht nur in SQL Server Enterprise ab SQL Server 2008.

SystemGetCrossValidationResults & #40; Analysis Services – Datamining & #41;
SystemGetAccuracyResults & #40; Analysis Services – Datamining & #41;
SystemGetClusterCrossValidationResults
SystemGetClusterAccuracyResults & #40; Analysis Services – Datamining & #41;

Community-Beiträge

HINZUFÜGEN
Anzeigen: