- Apriori-Algorithmus
-
Der Apriori-Algorithmus ist ein Verfahren zur Assoziationsanalyse, einem Bereich des Data-Mining. Er dient der Auffindung von sinnvollen und nützlichen Zusammenhängen in transaktionsbasierten Datenbasen, die in Form von sogenannten Assoziationsregeln dargestellt werden. Eine häufige Anwendung des Apriori-Algorithmus ist die Warenkorbanalyse. Items sind hierbei angebotene Produkte und ein Einkauf stellt eine Transaktion dar, welche die gekauften Items enthält. Der Algorithmus bestimmt nun Korrelationen der Form:
- Wenn Shampoo und Rasierwasser gekauft wurden, wurde in 90% der Fälle auch Rasierschaum gekauft.
Eine passende Datenbasis besteht aus einer Tabelle von Transaktionen (Zeilen) in denen beliebige binäre Items (Spalten) zusammengefasst werden. Der Apriori-Algorithmus findet Zusammenhänge zwischen Mengen von Items, die in einem großen Teil der Transaktionen vorkommen. Die ausgegebenen Assoziationsregeln haben die Form , wobei A und B Mengen von Items sind. Eine solche Regel beschreibt, dass in einem großen Teil der Transaktionen die Itemmenge A vorkommt und in diesen Transaktion die Itemmenge B ebenfalls häufig ist.
Inhaltsverzeichnis
Voraussetzungen
Der Apriori-Algorithmus wird bei Datenbasen einer bestimmten Form angewendet. Die Form der Datenbasis muss wie folgt vorliegen:
- ist eine Menge von möglichen Items
- ist die Datenbasis, bestehend aus Transaktionen tx
- eine Transaktion fasst eine Menge von Items zusammen
Typischerweise wird eine Menge von mehr als 500.000 Transaktionen auf einer sehr großen Item-Basis analysiert. Die Darstellung der Datenbasis erfolgt in einer de-normalisierten Datenbanktabelle, welche für jedes mögliche Item eine Spalte besitzt. Die enthaltenen Zeilen stellen jeweils eine Transaktion dar, wobei in der Transaktion enthaltene Items mit einer 1, nicht enthaltene mit einer 0 gekennzeichnet werden. Eine Transaktion lässt sich somit auch als Vektor mit Dimensionen betrachten.
Eine Assoziationsregel ist von der Form
wobei gilt
- , und
Bewertung von Regeln
Assoziationsregeln werden mit zwei probabilistischen Messwerten bewertet: Support und Konfidenz. Der Apriori-Algorithmus erwartet als Eingabe unter anderem die Werte minsupp und minconf, welche den minimalen Support und die minimale Konfidenz einer Regel darstellen, damit sie berücksichtigt werden.
Support
Der Support einer Itemmenge ist die Wahrscheinlichkeit, dass diese Itemmenge in einer Transaktion vorkommt.
Sei X = A1,A2,...,An Itemmenge.
Der Support einer Assoziationsregel , mit X = {A1,A2,...,An} und Y = {B1,B2,...,Bm}, ist definiert als
Der Support einer Regel gibt also die relative Häufigkeit an, mit der die Regel in der Datenbasis vorkommt. Meist ist ein hoher Support wünschenswert, um Aussagen über Mehrheiten zu finden.
Konfidenz
Sei eine Assoziationsregel, mit X = {A1,A2,...,An} und Y = {B1,B2,...,Bm}.
Die Konfidenz einer Regel entspricht der Wahrscheinlichkeit der Konklusion unter Bedingung der Prämisse:
also
Die Konfidenz misst also die relative Häufigkeit des Vorkommens der Konklusion unter Bedingung der Prämisse. Auch für die Konfidenz ist ein hoher Wert wünschenswert. Oder einfacher ausgedrückt: Die Konfidenz misst für welchen Anteil der Transaktionen, in denen X vorkommt, auch Y vorkommt. Zur Berechnung der Konfidenz wird die Anzahl aller regelerfüllenden Transaktionen (also der Support) durch die Anzahl der Transaktionen, die X enthalten, geteilt.
Der Algorithmus
Der Apriori-Algorithmus erhält als Eingaben
- Die Datenbasis
- Den Minimal-Support minsupp
- Die minimale Konfidenz minconf
und gibt eine Menge von Assoziationsregeln aus, die sowohl minsupp als auch minconf erfüllen.
Der Algorithmus arbeitet in zwei Schritten welche beide einen gemeinsamen Schritt Apriori-Gen verwenden:
- Findung häufiger Mengen
- Erzeugung von Assoziationsregeln
Findung häufiger Itemmengen
Die Suche nach häufigen Itemmengen startet mit 1-elementigen Mengen und wird iterativ mit n-elementigen Mengen fortgeführt, bis keine Itemmengen mit genügendem Support mehr gefunden werden. Dabei wird in jeder Iteration eine Menge von Kandidatenmengen mittels Apriori-Gen erzeugt und jede Menge auf die minconf-Eigenschaft hin überprüft. Können keine neuen Mengen mehr gefunden werden, stoppt der Algorithmus und gibt die gefundenen Mengen aus.
- Berechne alle 1-elementigen Itemmengen mit Support > minsupp: L1.
- Für .
- Berechne Menge von Kandidaten Ck aus Lk − 1 mittels Apriori-Gen.
- Berechne den tatsächlichen Support von allen Mengen aus Ck.
- Nimm die Mengen mit genügend Support in Lk auf.
- Ist , brich ab.
- Gib zurück.
Die zurückgegebene Menge enthält alle häufigen Itemmengen.
Apriori-Gen
Die Sub-Routine Apriori-Gen wird sowohl bei der Berechnung häufiger Mengen, als auch bei der Generierung von Assoziationsregeln verwendet. Anstatt für alle möglichen Itemmengen den Support direkt zu berechnen, wird durch Apriori-Gen auf Basis von bereits gefundenen häufigen Mengen eine Menge von Kandidaten zur weiteren Überprüfung generiert.
Die Routine erhält als Eingabe eine Menge von häufigen k − 1-Itemmengen (Lk − 1) und gibt eine Menge von k-Itemmengen (Ck) als mögliche Kandidaten zurück. Sie basiert auf dem Prinzip, dass alle Teilmengen einer häufigen Itemmenge häufig sind, alle Obermengen einer nicht-häufigen Itemmenge aber auch nicht-häufig. Unnötige Support-Berechnungen werden so vermieden.
- Generiere k-Itemmengen durch Verschmelzung von je zwei k − 1-Itemmengen, die je k − 2 Items gemein haben und füge sie Ck hinzu.
- Überprüfe für jede Menge X in Ck, ob alle k − 1-Teilmengen in Lk − 1 enthalten sind. Falls nicht, entferne X aus Ck.
Beispiel
Die Eingabe zu Apriori-Gen sei:
- L3 = {{a,b,c},{a,b,d},{a,b,e},{a,c,d},{b,c,d},{a,c,e}}
Schritt 1 der Apriori-Gen-Routine berechnet nun die folgende Kandidaten Menge:
- C4 = {{a,b,c,d},{a,b,c,e},{a,b,d,e}}
Schritt 2 entfernt die Mengen {a,b,c,e} und {a,b,d,e} wieder aus C4, da {b,c,e} und {b,d,e} nicht in L3 enthalten sind. Beide Mengen sind also nicht häufig und Ihre Obermengen müssen nicht berücksichtigt werden.
Das Ergebnis von Apriori-Gen ist also
- C4 = {{a,b,c,d}}
Generierung von Assoziationsregeln
Nur Itemmengen die bereits in sich häufig sind, müssen für diesen Schritt des Algorithmus berücksichtigt werden. Solche Itemmengen wurden von Schritt 1 des Apriori-Algorithmus berechnet. Die von Schritt 1 verwendete Routine Apriori-Gen wird bei der Generierung von Assoziationsregeln erneut verwendet.
Für jede gefundene häufige Itemmenge wird versucht, Assoziationsregeln zu erzeugen. Dabei wird mit möglichst kurzen (1-elementigen) Konklusionen begonnen, welche iterativ vergrößert werden. Der folgende Pseudocode wird für jede gefundene Itemmenge Z ausgeführt:
- Für jede Itemmenge Z: berechne Assoziationsregeln der Form mit und X = Z − Y mit .
- Erzeuge H1 mit Itemmengen bestehend aus je einer gefundenen Konklusion.
-
- Erzeuge Hk durch Apriori-Gen.
- Für jede Konklusion überprüfe minconf von . Falls minconf nicht erfüllt ist, entferne hk aus Hk.
- Wenn , brich ab.
- Gib zurück.
Die erzeugten Regeln erfüllen alle minsupp und minconf.
Literatur
- Rakesh Agrawal, Tomasz Imieliński, Arun Swami: Mining Association Rules between Sets of Items in Large Databases. In: SIGMOD '93: Proceedings of the 1993 ACM SIGMOD international conference on Management of data. ACM, New York, NY, USA 1993, ISBN 0-89791-592-5, S. 207-216 (http://portal.acm.org/ft_gateway.cfm?id=170072&type=pdf&coll=Portal&dl=GUIDE&CFID=13700523&CFTOKEN=56894244).
- Rakesh Agrawal, Ramakrishnan Srikant: Fast Algorithms for Mining Association Rules. In: VLDB '94: Proceedings of the 20th International Conference on Very Large Data Bases. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA 1994, ISBN 1-55860-153-8, S. 487-499 (http://ifsc.ualr.edu/xwxu/Teaching/SciDB/vldb94Apriori.pdf).
- Jean-Marc Adamo: Data Mining for Association Rules and Sequential Patterns: Sequential and Parallel Algorithms. Springer, Berlin, New York 2001, ISBN 978-0-3879-5048-8.
Weblinks
- Gabriele Kern-Isberner: Wissenserwerb und Wissensentdeckung in Darstellung, Verarbeitung und Erwerb von Wissen 2007/2008
- Katharina Morik: Assoziationsregeln in Wissensentdeckung in Datenbanken 2008
Wikimedia Foundation.