TechNet
Exportieren (0) Drucken
Alle erweitern

Übergreifende Überprüfung (Registerkarte, Mininggenauigkeitsdiagramm-Sicht)

 

Betrifft: SQL Server 2016

Mithilfe der übergreifenden Überprüfung können Sie eine Miningstruktur in Querschnitte partitionieren und Modelle anhand der einzelnen Querschnitte iterativ trainieren und testen. Sie geben eine Anzahl von Aufteilungen für die Daten an. Die einzelnen Aufteilungen werden der Reihe nach als Testdaten verwendet, während mit den jeweils verbleibenden Daten ein neues Modell trainiert wird. Analysis Services generiert dann eine Gruppe vorgegebener genauigkeitsmetriken für jedes Modell. Durch den Vergleich der Metriken für die für die einzelnen Querschnitte generierten Modelle erhalten Sie Aufschluss über die Zuverlässigkeit des Miningmodells für das ganze Dataset.

Weitere Informationen finden Sie unter Kreuzvalidierung & #40; Analysis Services – Datamining & #41;.

System_CAPS_ICON_note.jpg Hinweis


Die übergreifende Überprüfung kann nicht bei Modellen verwendet werden, die mithilfe des Microsoft Time Series-Algorithmus oder des Microsoft Sequence Clustering-Algorithmus erstellt wurden. Wenn Sie den Bericht für eine Miningstruktur mit diesen Typen von Modellen ausführen, werden die Modelle im Bericht nicht berücksichtigt.

  • Geben Sie die Anzahl von Aufteilungen an.

  • Geben Sie die maximale Anzahl von Fällen an, die für die übergreifende Überprüfung zu verwenden sind.

  • Geben Sie die vorhersagbare Spalte an.

  • Geben Sie optional einen vorhersagbaren Status an.

  • Legen Sie optional Parameter fest, mit denen gesteuert wird, wie die Genauigkeit der Vorhersage bewertet wird.

  • Klicken Sie auf Ergebnisse abrufen zur Anzeige der Ergebnisse der übergreifenden Überprüfung.

Foldanzahl
Geben Sie die Anzahl von zu erstellenden Aufteilungen (oder Partitionen) an. Der Minimalwert ist 2. Das bedeutet, dass die eine Hälfte des Datasets zum Testen und die andere zum Trainieren verwendet wird.

Der Maximalwert für Sitzungsminingstrukturen ist 10.

Der Maximalwert ist 256, wenn die Miningstruktur in einer Instanz von Analysis Services gespeichert ist.

System_CAPS_ICON_note.jpg Hinweis


Wenn Sie die Anzahl der Aufteilungen erhöhen, verlängert sich entsprechend auch die für die Ausführung der Kreuzvalidierung erforderliche Zeit um n. Möglicherweise treten Leistungsprobleme, wenn die Anzahl der Fälle groß ist und der Wert der Aufteilungsanzahl groß ist.

Maximale Anzahl von Fällen
Geben Sie die maximale Anzahl von Fällen an, die für die übergreifende Überprüfung zu verwenden sind. Die Anzahl der Fälle in einer bestimmten Aufteilung entspricht dem maximale Anzahl von Fällen Wert dividiert durch die Aufteilungsanzahl Wert.

Wenn Sie verwenden 0, alle Fälle in den Quelldaten für die übergreifende Überprüfung verwendet werden.

Es gibt keinen Standardwert.

System_CAPS_ICON_note.jpg Hinweis


In dem Maße, in dem Sie die Anzahl von Fällen erhöhen, nimmt auch die Verarbeitungszeit zu.

Zielattribut
Wählen Sie in der Liste der in allen Modellen vorhandenen vorhersagbaren Spalten eine Spalte aus. Sie können jeweils nur eine vorhersagbare Spalte auswählen, wenn Sie eine übergreifende Überprüfung ausführen.

Wenn Sie nur Clustermodelle testen möchten, wählen Sie Cluster.

Zielstatus
Geben Sie einen Wert ein, oder wählen Sie in einer Dropdownliste von Werten einen Zielwert aus.

Der Standardwert ist null, gibt an, dass alle Status getestet werden soll.

Bei Clustermodellen deaktiviert.

Ziel  Schwellenwert
Geben Sie einen Wert zwischen 0 und 1 an, mit dem die Vorhersagewahrscheinlichkeit angegeben wird, oberhalb derer ein vorhergesagter Status als richtig gewertet wird. Der Wert kann in Schritten von 0,1 festgelegt werden.

Der Standardwert ist null, gibt an, dass die wahrscheinlichste Vorhersage als richtig gewertet wird.

System_CAPS_ICON_note.jpg Hinweis


Sie können den Wert zwar auf 0,0 festlegen, dadurch wird jedoch die Verarbeitungszeit erhöht, und es werden keine brauchbaren Ergebnisse geliefert.

Ergebnisse abrufen
Klicken Sie hierauf, um die übergreifende Überprüfung des Modells mit den angegebenen Parametern zu starten.

Das Modell wird in die angegebene Anzahl von Aufteilungen partitioniert, und für jede Aufteilung wird ein separates Modell getestet. Deshalb kann es einige Zeit dauern, bis die übergreifende Überprüfung Ergebnisse zurückgibt.

Weitere Informationen zum Interpretieren der Ergebnisse des Berichts übergreifende Überprüfung finden Sie unter Measures in der Kreuzvalidierungsbericht.

Sie können den Standard für das Messen der Genauigkeit durch Festlegen eines Werts für steuern Ziel Schwellenwert. Ein Schwellenwert stellt eine Art von Genauigkeitsleiste dar. Jeder Vorhersage wird eine Wahrscheinlichkeit der Richtigkeit des vorhergesagten Werts zugewiesen. Daher, wenn Sie festlegen, die Ziel Schwellenwert Wert näher auf 1, muss die Wahrscheinlichkeit für eine bestimmte Vorhersage ziemlich hoch sein, damit diese als gute Vorhersage gewertet wird. Umgekehrt, wenn Sie festlegen, Ziel Schwellenwert näher an 0, auch Vorhersagen mit niedrigeren Wahrscheinlichkeitswerten als "gute" Vorhersagen gewertet.

Es gibt keinen empfohlenen Schwellenwert, da die Wahrscheinlichkeit einer Vorhersage von der Datenmenge und dem Typ der Vorhersage abhängt. Prüfen Sie einige Vorhersagen auf verschiedenen Wahrscheinlichkeitsstufen, um eine geeignete Genauigkeitsleiste für Ihre Daten zu bestimmen. Es ist wichtig, dass Sie dies tun, da der angegebene Wert für Ziel Schwellenwert wirkt sich auf die gemessene Genauigkeit des Modells.

Angenommen, es werden drei Vorhersagen für einen bestimmten Zielstatus erstellt, und die Wahrscheinlichkeiten für die einzelnen Vorhersagen liegen bei 0,05, 0,15 und 0,8. Wenn Sie den Schwellenwert auf 0,5 festgelegt haben, wird nur eine Vorhersage als richtig gewertet. Wenn Sie festlegen, Ziel Schwellenwert 0,10, zwei der Vorhersagen als richtig gewertet.

Wenn Ziel Schwellenwert Wert null, lautet (der Standardwert), die wahrscheinlichste Vorhersage für jeden Fall als richtig gewertet. In dem gerade genannten Beispiel sind 0,05, 0,15 und 0,8 die Wahrscheinlichkeiten für Vorhersagen in drei verschiedenen Fällen. Obwohl die Wahrscheinlichkeiten sehr unterschiedlich sind, würde jede Vorhersage als richtig gewertet, da jeder Fall nur eine Vorhersage generiert und es sich dabei um die besten Vorhersagen für diese Fälle handelt.

Tests und Validierung & #40; Datamining & #41;
Übergreifende Überprüfung & #40; Analysis Services – Datamining & #41;
Measures im Kreuzvalidierungsbericht
Datamining-gespeicherte Prozeduren und #40; Analysis Services – Datamining & #41;

Community-Beiträge

HINZUFÜGEN
Anzeigen:
© 2016 Microsoft