- Wissenstechnologie
-
Die Wissenstechnologie ist eine Bezeichnung für die Verbindung einer Sammlung von zum Teil über zweitausend Jahre alten formalen Methoden zur Wissensgewinnung und -nutzung mit modernen Verfahren der Wissensverarbeitung und der Mathematik.
Inhaltsverzeichnis
Gegenstand und Einordnung des Fachgebiets
Die Bezeichnung Wissenstechnologie kam erstmals Ende der 1980er Jahre auf. Das Unbehagen einiger Informatiker über den Begriff "Künstliche Intelligenz" führte zu Wortneubildungen wie Intelligenztechnologie oder dann auch Wissenstechnologie.[1] Um den Wandel von der Informationsgesellschaft zur Wissensgesellschaft durchführen zu können, waren andere Technologien erforderlich.[2] Das Notwendige war zum Teil schon seit über 2000 Jahren bekannt: Die Scholastische Dialektik als funktionales und die Ontologien als Datenmodell. Einige Schwachstellen wurden durch neue Ideen beseitigt und die alten nichtnumerischen Algorithmen wie etwa die Arborisierung zur Suche nach konsensfähigen Lösungen mit rechnergestützten Verfahren wie der Resolution und der Unifizierung automatisiert und in ihrer Leistungsfähigkeit wesentlich gesteigert.[3] Da das Ziel der alten Methoden primär das Gewinnen und Sichern von Erkenntnis war, wird der erste Wortbestandteil hier entsprechend am besten erkenntnistheoretisch definiert:
Wissen ist jedes formale oder formalisierbare Produkt von Erkenntnis.
Dabei war früher die Formalisierung immer sprachlich auf Basis der formalen logischen Figuren und Schlussregeln gemeint. Diese lassen sich aber unproblematisch, etwa für eine Programmierung in Prolog, in die heutige mathematisierte Notation überführen. Eine wahrscheinlichkeitstheoretische Interpretation war unbekannt und wurde erst vor kurzem ergänzt. Der zweite Wortbestandteil fordert nicht unbedingt eine informationstechnische Automatisierung, wohl aber eine wohlgeordnete, konsistente Struktur der eingesetzten formalen Mittel:
Technologie bezeichnet eine konsistente Informationsarchitektur aus Objekten (Ontologie) und Methoden (im allgemeinen nichtnumerische Algorithmen), welche zur Gewinnung, Prüfung, Verwaltung und Nutzung von Wissen dienen kann. Sie braucht nicht, kann aber mit DV-technischen Mitteln automatisiert werden.
Damit ist die Wissenstechnologie primär ein Zweig der Informatik mit Bezügen zur Philosophie, Linguistik, Erkenntnistheorie und der mathematischen Logik sowie anderen Zweigen der Mathematik, vor allem der Wahrscheinlichkeitstheorie. Ihr praktischer Nutzen ist vor allem die Unterstützung und Bereitstellung eines Methodenarsenals für des Wissensmanagement in jeder modernen Organisation. Für die Praxis wichtig wurde vor allem die auf ihrer Basis entstandene Konstruktive Projektdokumentation, die wesentliche Fortschritte vor allem in der Strukturierung der Projektführung und Dokumentation brachte und es ermöglicht, auch noch nach Jahren bei Änderungen von Bedingungen schnell deren Auswirkungen auf das Projekt und seine Dokumentation zu finden.
Geschichte
In der Geschichte der Wissenstechnologie lassen sich zwei durch etwa 500 Jahre getrennte Abschnitte unterscheiden.
Dialektik – Antike
Den ersten bildet die Scholastische Dialektik. Sie beginnt mit Sokrates († 399 v. Chr.) und seiner Sokratischen Dichotomie, der Erkenntnis des Unterschieds zwischen der Realität als der grundsätzlich sprachlich erreichbaren Umwelt menschlich-kognitiver Systeme und der Wirklichkeit als Menge der Gewissheiten eines (einzelnen) Menschen. Die Wirklichkeit bestimmt das Verhalten eines Menschen, es ist das, was auf ihn "wirkt".
Pyrron von Elis († um 270 v. Chr.) bewies mit einem einfachen Widerspruchsbeweis, dass ein Mensch die Realität und damit die Wahrheit einer Aussage grundsätzlich nicht erkennen kann. Er kann lediglich versuchen, seine Wirklichkeit möglichst gut an die Realität anzunähern. Deshalb gibt es nur eine Realität aber so viele Wirklichkeiten, wie es Menschen gibt. Etwa zur selben Zeit wurde ausgehend von der Kategorienlehre Platons und Aristoteles die Ontologie als Begriffslehre erarbeitet.
Die erstmals bei Platon erwähnte Dialektik als Methode des richtigen Diskutierens nimmt deshalb auch nicht an, dass einer der Diskutanten im Besitz der Wahrheit ist und die anderen von dieser überzeugen kann und soll. Im Gegenteil sollen die Parteien ihre Gewißheiten austauschen und versuchen, aus ihnen ein möglichst realitätsnahes Ergebnis zu erzielen. Deshalb ist ein Kompromiss grundsätzlich zu vermeiden: niemand kann wissen, ob die von den Diskutanten in seinem Interesse aufgegebenen Positionen "wahr" oder "falsch" sind, so dass ein Kompromiss mit hoher Wahrscheinlichkeit zu suboptimalen Lösungen führt. Nur der Konsens, bei dem jeder Diskutant vernunftgemäß seine Wirklichkeiten modifiziert und sie so mit denen seiner Diskussionspartner in Einklang bringt, kann hoffen, eine optimale, das heißt realitätsnahe Lösung zu erreichen.
Diese Dialektik war wesentlicher Teil der Staatskunst des römischen Reichs und wurde nach dessen Niedergang in der christlichen Kirche weitergeführt. Dabei waren die Syllogismen der formalen (natürlichsprachlich formulierten) Logik der wesentliche Denkmechanismus, welcher die Diskussionsführung bestimmte.
Das weitgehend standardisierte Vorgehen war, dass die Bedingungen, welche die einzelnen Beteiligten an eine Lösung stellten, in einer Vexillum (Fahne) genannten Liste gesammelt wurden. Anschließend wurden Widersprüche beseitigt, indem in einem nach seinem Erfinder, Porphyrios von Tyros († ca. 301), als Arbor Porphyriana bezeichneten, nichtnumerischen Algorithmus nach Alternativen gesucht wurde, die einen Lösungsweg aufzeigten. Das Verfahren entspricht weitgehend der Resolution in einem heutigen Prolog-Interpreter; allerdings ist eine moderne Implementierung nicht nur durch die vielfach höhere Verarbeitungsleistung eines Computers sondern insbesondere auch durch eine Parametrisierung der Terme und die dadurch ermöglichte Unifikation von Variablen ungleich leistungsfähiger.
Scholastische Dialektik – Mittelalter
Im Mittelalter wurde diese Denkschule in den Hohen Schulen (Paris, Oxford, Heidelberg, Prag) zur Scholastischen Dialektik vor allem durch Thomas von Aquin († 1274) erkenntistheoretisch sowie von Wilhelm von Occam († 9. April 1347 in München) formallogisch ausgebaut. Occam verwendete logische Methoden in vielen Richtungen. So diente ihm zum Beispiel sein Modell der "inneren Rede" dazu, ein Verfahren der Begriffsdistinktion zu entwickeln, welches einen wesentlichen Fortschritt beim Aufstellen von Ontologien brachte: nach Occam formuliert ein rationaler Mensch eine Aussage "innerlich" als Beweis vor und äußert dann lediglich die Schlussfolgerung. Bringt man den Diskussionsteilnehmer dazu, den vollständigen Beweis zu sagen, so definiert das Medium des Beweises den zentralen Begriff, über welchen der Diskutant tatsächlich redet.
Bedeutungsverlust
Zu Beginn der Neuzeit zeigten sich zwei Schwächen Anwendung der Logik in der Scholastischen Dialektik deutlicher: Die eine war die Vorstellung, dass jede Aufgabe als ein wohldefiniertes Problem zu formulieren sei, das dann durch vollständiges Auflisten der Bedingungen mit den logischen Algorithmen einer Arborisierung gelöst werden könne. Für die zunehmende Komplexität vernetzter Systeme und damit Probleme hatte die Scholastik keine Denkmodelle parat. Erst in neuester Zeit wurden diese entwickelt (zum Beispiel PlanMan) und erfolgreich zur Analyse und Beherrschung multidimensionaler Problemfelder eingesetzt.
Die zweite Schwierigkeit brachte die konsequente Formalisierung auf Basis logischer Aussagen. Die formale Logik nimmt an, dass jeder Term wahr oder falsch ist und definiert zwischen ihnen die Verknüpfungen und, oder und nicht, welche entsprechend der Logischen Figur, also der Anordnung der verknüpften Terme, ein Ergebnis ableiten, das ebenfalls streng wahr oder falsch ist.
Nun hatte aber schon mehr als 1500 Jahre zuvor Pyrron von Elis bewiesen, dass Gewißheiten nicht als wahr oder falsch klassifiziert werden konnten. Die ganze logische Maschinerie, auf welcher die Scholastische Logik beruhte, war damit mehr als zweifelhaft. Zwar konnte man hoffen, dass sie aus Gewißheiten wenigstens für den einzelnen Menschen auch wieder taugliche Gewißheiten ableitete und damit eine brauchbares Modell wenigstens individueller Wirklichkeiten lieferte.
Verlässlich war diese Hoffnung aber nicht, und tatsächlich konnten zwar Spezialisten weiterhin mit ihr umgehen – noch heute wird sie zum Beispiel durch Jesuiten geschult und verwendet. Bei nicht logisch geschulten Laien waren die Ergebnisse vor allem bei komplexeren Ableitungsketten eher Glückssache. Vor allem mehrere UND-Operationen erwiesen sich als sehr unzuverlässig.
Weiterentwicklung und Nutzung in der Neuzeit
Der zweite Abschnitt beginnt etwa um 1980. Die Scholastische Dialektik wurde als Wissenstechnologie wieder entdeckt. Nun sollten Ontologien als Datenmodell und die Resolution als funktionaler Grundmechanismus der logischen Programmierung in Prolog-Interpretern implementiert werden. Dabei kamen beide Schwierigkeiten wieder hoch.
Die Komplexität zeigt sich unter anderem, wenn konkrete Sachgebiete zwischen 10 und 100 Tausend Begriffe zählen und man bei (wegen der Relationen) angenommener quadratischen Komplexität auf 100 Millionen bis 10 Milliarden potentieller Beziehungen kommt. Entsprechend aufwendig wird die funktionale Seite, wenn man sich auf die von einem Prolog-Interpreter automatisch angebotene vollständige Rekursion mit Rücksetzen zur Lösungsfindung verlässt und keine Heuristiken hinzufügt oder programmieren will. Und schließlich waren die nun selbst bei Automatisierung nur mit beträchtlichem Aufwand gefundenen Ergebnisse wegen des beschriebenen Problems der formalen Logik noch nicht einmal verlässlich.
Die Lösung hierfür brachte erst das Bekanntwerden und die Nutzung der von Georg Pólya um 1960 entwickelten Theorie des Plausiblen Schließens. Er ersetzt die Wahrheitswerte wahr und falsch durch Plausibilitäten, also zwischen 1 und 0 liegenden Wahrscheinlichkeiten. Die logischen Operatoren UND, ODER und NICHT werden durch die entsprechenden Verknüpfungen der Wahrscheinlichkeiten ersetzt. Der Konjunktion entspricht der Multiplikation und die Disjunktion der Addition mit anschließender Normierung. Dadurch nähern sich UND-Ketten auch bei hohen Plausibilitäten ziemlich rasch der Wahrscheinlichkeit 0, während umgekehrt ODER-Ketten der Wahrscheinlichkeit 1 zustreben. Sind also die Wahrscheinlichkeiten etwa auf der Basis von Statistiken, physikalischer Modelle oder ähnlichem Wissen einigermaßen bekannt, steht damit der volle Apparat der Scholastischen Dialektik der modernen Wissenstechnologie wieder zur Verfügung.
Schließlich werden derzeit auch Methoden entwickelt, sowohl auf der Objekt- als auch der Methodenseite durch Heuristiken und Kontexte die Komplexität auf ein zumindest mit modernen Datenverarbeitungsanlagen behandelbares Maß zu reduzieren.
Konsens und Kompromiss
Es gibt drei Grundmodelle, nach denen Handlungsentscheidungen getroffen werden:
- Das Diktat. Eine Instanz trifft die Entscheidung und setzt sie mit allen ihr zur Verfügung stehenden Mitteln durch. Beispiele gibt es viele. Jedes faschistoide System funktioniert so. (Als faschistoid wird ein System bezeichnet, in dem eine Instanz glaubt, im Besitz der Wahrheit zu sein und deshalb Anspruch auf Durchsetzung seiner Vorstellungen zu haben).
- Der Kompromiss. Kompromiss bedeutet Erreichen des Einverständnisses zweier oder mehr Parteien über eine Entscheidung, eine vorzunehmende Handlung oder die Duldung eines Vorhabens, bei dem beide Seiten etwas aufgeben müssen. Die antike Dialektik verstand unter Kompromiss ein formales Verfahren, nämlich das gegenseitige Versprechen streitender Parteien, sich der Entscheidung eines selbstgewählten Schiedsrichters zu unterwerfen und dessen Spruch anzuerkennen oder eine bestimmte, vorher beim Schiedsrichter niedergelegte Summe als Strafe zu verlieren[4].
- Der Konsens. Beim Konsens wird ebenfalls das Einverständnis zweier oder mehr Parteien über eine Entscheidung, eine vorzunehmende Handlung oder die Duldung eines Vorhabens erreicht. Hier gehen jedoch alle Beteiligten mit einem guten Gefühl auseinander. Die Interessen aller wurden berücksichtigt und eine bestmögliche Lösung gefunden.
Mit der Zeit differenzierten sich die Bedeutungen. Heute versteht man im allgemeinen unter Kompromiss eine Einigung, bei der jede der Parteien Teile ihrer Bedingungen und Forderungen aufgibt. Dagegen strebt der Konsens an, sowohl die Aufgabenstellung und gegebenenfalls einen bereits angedachten Lösungsweg als auch die von den Beteiligten aufgeführten Bedingungen an diese so zu modifizieren, zu präzisieren und aneinander anzupassen, dass zumindest die als notwendig angesehenen Bedingungen sämtlich erfüllt sind oder erfüllbar werden[5].
Daraus entstand die schon erwähnte Überzeugung, dass Kompromisse durch das Aufgeben von Vorstellungen und Bedingungen in der Regel sogar aller Beteiligten zwangsläufig suboptimale Lösungen erreichen, während ein Konsens das Erreichen der optimalen zumindest wahrscheinlich macht. Der Konsens wird deshalb zuweilen auch als Win-Win-Lösung bezeichnet. Ein dem von der Wissenstechnologie auf der Basis der Scholastischen Dialektik empfohlenen Vorgehen ähnliches Verfahren ist das Harvard-Konzept zur Verhandlungsvorbereitung und Konfliktlösung.
In der Literatur über Konsens und die Wege zu ihm fällt auf, dass eine Modifikation der Aufgabenstelle oder der Problemlösung kaum auch nur angesprochen wird . Ein Beispiel dafür lesen Sie unter Konsens-Unterschiede in den Entscheidungsverfahren. Für die hier als einzige genannte Methode, das "Systemische Konsensprinzip", ist der Wikipediaeintrag leer. Damit reduziert sich das Verfahren auf eine einfache demokratische Prozedur ohne Absicherungen wie mehrere Beschlussgremien (Kammern), Minderheitenschutz, Schlichter und Gerichte. Mechanismen zum Einbringen neuen Wissens und zur Modifikation oder Anreicherung der Lösung sind noch nicht einmal ansatzweise vorgesehen. Beteiligte oder sich benachteiligt Fühlende werden zwangsläufig entweder auf Kompromisslösungen oder andere demokratische Auswege wie Demonstrationen oder Verweigerung gezwungen.
Die antike ebenso wie die scholastische Dialektik verwendete deshalb ein technisch ausgeklügeltes, stufenweises Verfahren das keinerlei Abstimmungen, noch nicht einmal "informatorische" kannte, aber durch Anreicherung des Wissens aller Beteiligten, frühzeitige Definition der von jedem Teilnehmer an eine Lösung zu stellenden Bedingungen mit laufender Modifikations- und Präzisierungsmöglichkeit während des gesamten Projektverlaufs und der Möglichkeit auch größerer Änderungen im beabsichtigten Lösungswegs mit erfahrenen Moderatoren fast immer zu einem "echten" Konsens führt.
Wichtig ist dabei, dass bei keinem Lösungsschritt bei keinem Beteiligten Gefühle eines Siegs oder einer Niederlage aufkommen darf, die dann zwangsläufig zu einer Kompensation und damit einem Kompromiss zwingen. Man beachte, dass Abstimmungen aus diesem Grund kontraproduktiv sind, weil es bei ihnen immer Sieger und Unterlegene gibt. Zudem sind sie ethisch fragwürdig. Das wird häufig übersehen. Sie machen nämlich die in der Abstimmung Unterlegenen zum Mittel zur Durchsetzung der Wünsche der Mehrheit und verstoßen damit eindeutig gegen Kants Pragmatischen Imperativ. Ohne geeignete Absicherungen, welche in üblichen Diskussionen nie getroffen werden und auch nicht getroffen werden können, verstoßen sie somit gegen die Würde des Menschen. Und für andere Methoden, Entscheidungen durch Machtmittel oder Gewalt herbeizuführen, gilt dies natürlich erst recht.
Zentrales Dokument eines nach den Regeln der scholastischen Dialektik durchgeführten Problemlösungsprozesses auf Basis der neuzeitlichen Wissenstechnologie ist die Bedingungsliste.
Sie steht grundsätzlich am Anfang eines Vorhabens oder einer Aufgabenlösung, über die ein Konsens erzielt werden soll. Über den gesamten Projektverlauf wird sie als zentrales Dokument mitgeführt und ständig gepflegt. In sie müssen auch Erweiterungen, Änderungen und Ergänzungen des Vorhabens eingefügt werden. Dies generiert in aller Regel auch neue Bedingungen. Über sie muss wiederum auf die gleiche Weise wie über die bereits verabschiedeten ein Konsens erzielt werden. Dass sich dabei auch die alten Bedingungen ändern können oder sie mit neuen integriert werden, versteht sich von selbst.
Bedingungslisten – das Vexillum
Die Bedingungsliste entsteht in der Regel während einer Startdiskussion für das neue Projekt. Dabei werden auf Flip Charts oder Metaplan-Tafeln unter einer kurzen Aufgabenbezeichnung ("These") zeilenweise an einen senkrechten Strich die Bedingungen geschrieben, welche die Teilnehmer an eine Lösung stellen. Dadurch entsteht das Bild einer Fahne, weswegen die Liste von den Scholastikern als "Vexillum" bezeichnet wurde; dieser Name oder seine deutsche Übersetzung hat sich bis heute erhalten Fahnenbildung. Das folgende Beispiel ist an das Buch von Lay[6] angelehnt:
Ein Lohn ist nur dann gerecht, wenn
- er in vertraglich vereinbarter Höhe ausgezahlt wird,
- die Höhe sich am Marktwert des Arbeitsprodukts orientiert,
- die Höhe sich am Marktwert der Arbeit orientiert,
- der Empfänger sich und seine Familie angemessen versorgen kann,
- er den Empfänger auch im Alter absichert,
- er in seiner Höhe nicht den Bestand des Unternehmens gefährdet,
- seine Höhe nicht die Entlassung des Mitarbeiters nahelegt,
- seine Höhe nicht den Arbeitsplatz gefährdet (Automation, Verlagerung …),
Offensichtlich sind schon die genannten Bedingungen kaum konsensfähig, und jede der zum Beispiel an einer Lohnverhandlung beteiligten Seiten könnte sicher noch weitere hinzufügen, welche einen Konsens weiter erschweren. Die übliche Empfehlung, nunmehr durch Diskussion die Beteiligten zu einer Modifikation oder Zurücknahme ihrer Bedingungen zu bringen, scheitert im Allgemeinen. Deshalb empfehlen Ratgeber zur Entscheidungsfindung[7] meist, dann andere Entscheidungsmethoden heranzuziehen. Leider gibt es wenig erfolgverheißende. Auf die Fragwürdigkeit von Abstimmungen wurde schon hingewiesen.
Dagegen stellen die Scholastische Dialektik und damit auch die Wissensverarbeitung einen Satz auf formallogischen Methoden beruhender Methoden bereit, wie die Terme eines Vexillums klassifiziert, umgewandelt, zusammengeführt und modifiziert werden können. Dabei wird die Semantik entweder nicht verändert, oder die Autoren können dieses Vorgehen kontrollieren und somit jeweils gutheißen oder ablehnen. Von Occam wurden diese Methoden zudem durch das Modell der "inneren Rede" auch in den ontologischen Bereich ausgedehnt: seine Begriffsdistinktion erlaubt, ebenfalls in Übereinstimmung mit den Diskussionsteilnehmern, die von ihnen verwendeten Begriffe zu präzisieren, zu verschärfen und gegebenenfalls die Kontext-Ontologien[8] der Teilnehmer so gegeneinander abzusetzen, dass die Gegensätze verschwinden oder sich leicht durch Modifikationen der Bedingungen und oft schon durch geeignete Wortwahl beseitigen lassen. Schließlich bietet die Arborisierung noch ein weiteres, ebenfalls formallogisches Verfahren, um eine konsensfähige Menge von Alternativbedingungen zu ermitteln.
Dies wird wesentlich vereinfacht, wenn die einzelnen Terme eines Vexillums – selbstverständlich wieder unter Beteiligung und nur bei Zustimmung durch die jeweiligen Autoren – formal umgeformt werden. Dies ist eine wichtige Aufgabe des Moderators. Vor allem erweist es sich als nützlich, wenn negative statt positive Formulierungen gewählt werden. Die Erfüllung negativer Bedingungen ist meist leichter zu kontrollieren als die von positiv formulierten Forderungen. „Das Bankkonto darf nie einen negativen Saldo haben“ ist mühelos zu überprüfen, „es muss immer eine ausreichende Liquidität vorhanden sein“ schon wegen der mangelnden Präzisierung des Sachverhalts nicht.
Das spiegelt sich wieder in der Theorie formallogischer Beweise: es gibt routinemäßige Standardmethoden, mit denen man beweisen kann, dass etwas nicht der Fall ist – zum Beispiel den Widerspruchsbeweis, welcher einen Widerspruch zu bekannten oder vorausgesetzten Aussagen konstruiert. Es gibt aber keine allgemeinen und breiter einsetzbaren Methoden für Existenzbeweise, also dem strengen Nachweis, dass ein angenommenes Faktum korrekt ist.
Mit modernen Mitteln der logischen Programmierung lassen sich diese Bearbeitungen und Umwandlungen großenteils automatisieren. Die in Programmiersysteme wie Prolog eingebauten Verfahren der Resolution[9] und Unifizierung erweitern dabei durch Auflösung logischer Variablen die Leistungsfähigkeit der antiken Algorithmen noch beträchtlich.
Formallogische Verfahren und Techniken
Wie bereits gesagt unterscheidet sich die Wissenstechnologie von den üblichen Methoden zur Entscheidungsvorbereitung und -findung einerseits durch die konsequente Orientierung auf den Konsens statt einen Kompromiss und andererseits durch das breite Angebot wissenschaftlich begründbarer und teils über Jahrtausende bewährter formallogischer und mathematischer Verfahren, welche die für einen Konsens in aller Regel nötigen Modifikationen, Umwandlungen und Zusammenführungen von Termen eines Vexillums, also der Bedingungen und deren angenommener Typen und Verknüpfungen, erst möglich machen.
Zuerst müssen die Bedingungen – ebenfalls natürlich wieder im Konsens mit den Autoren und den anderen Diskutanten – auf ihren Typ geprüft werden:
- Sind die Bedingungen für eine befriedigende Problemlösung notwendig? Sind sie nur nützlich, so werden sie ausgestrichen, aber getrennt gesammelt.
- Gibt es hinreichende Bedingungen, bei deren Vorliegen die These immer erfüllt ist? Sie werden ebenfalls gesammelt und können später zur Modifikation des Lösungsvorschlags dienen. Vielleicht kann man mit ihnen ohne Aufwand wesentlich mehr Wünsche erfüllen als ursprünglich erhofft.
- Sind alle Bedingungen konsensfähig, oder kann man sie wenigstens konsensfähig machen? Zuweilen erfordert das eine Änderung oder gar Neuformulierung der Lösungsthese. Nur wenige Methoden ziehen das überhaupt in Betracht, weil in ihnen das Endziel durch das vorher erstellte Lastenheft bzw. dann auch im Pflichtenheft festgeschrieben ist oder zumindest so gesehen wird. Dabei ist dies ja gerade die anzustrebende Optimierung der Lösung aus der Sicht aller Beteiligten.
- Sind alle notwendigen Bedingungen erfüllt oder erfüllbar? In der Regel müssen dazu einzelne Bedingungen durch Alternativen ersetzt werden. Die geeignete Methode ist die Arborisierung, ein von Porphyrius (gestorben zwischen 301 und 305 in Rom) stammender nichtnumerischer Algorithmus, der nach ihm als Arbor Porphyriana bezeichnet und zur Standard-Analysemethode zur Lösung jedes Problems wurde, bei dem widersprüchliche Bedingungen den beteiligten Parteien eine schnelle Konsensfindung über den optimalen Lösungsansatz erschwerten. Zu Beginn der 80er-Jahre des vorigen Jahrhunderts wurde dessen Automatisierung als Resolution zur wichtigsten Basistechnologie der „künstlichen Intelligenz".
Gelingt es nicht, genügend Alternativen zu finden, so kann man häufig mit einer Begriffsdistinktion die von verschiedenen Diskutanten verwendeten Semantiken unterschiedlichen Kontextontologien[10] zuweisen. Dies glückt besonders dann, wenn die Teilnehmer verschiedene Problemsichten oder Parteien – wie etwa Arbeitnehmer und Arbeitgeber – vertreten. Das löst zwar in der Regel die Widersprüche nicht von selbst, schafft aber eine Voraussetzung, weil sich nunmehr die jeweils Betroffenen klar werden, dass sie "nicht über dasselbe reden" und deshalb jeder leichter Standpunkte des anderen im jeweils betroffenen Geltungsbereich akzeptieren kann.
Die einzusetzende Methode beruht auf Occams[11] Vorstellung von der "inneren Rede". Hier werden von den Diskutanten die nicht explizit genannten Begründungen zu den von ihnen gemachten Aussagen abgefragt und in logische Beweisform gebracht. Aus dem Medium der Beweise lässt sich dann jeweils der Begriff und der Kontext ableiten, über den der betreffende "wirklich" redet.
Eine formale Umwandlung lohnt sich auch bei hinreichenden Bedingungen. Diese werden sinnvollerweise getrennt gesammelt. Da ja bereits eine einzige von ihnen reicht, um das Projekt zu begründen, kann als Konjunktor der hinreichenden Bedingungsliste ODER angenommen werden. Die Umwandlung in UND-verknüpfte notwendige Bedingungen zur Einfügung in das ursprüngliche Vexillum ist dann ein rein formaler und gegebenenfalls auch formalisierbarer Prozess – ein Prolog-Interpreter, dem die Fahne als Prolog-Programm eingegeben wird, vollführt diese Umwandlung automatisch, ohne dass sie dem menschlichen Anwender überhaupt bewusst wird. Er besteht einfach in der Negation aller Aussagen sowie deren Verknüpfung durch ein logisches UND. Die moderne Logik formalisiert dies als de Morgan’s Regel: Die Negation einer Alternative ist die Konjunktion der negierten Terme und umgekehrt.
Schließlich sollte hier noch kurz auf die bereits erwähnte Rechtfertigung der vielfachen Verwendung formallogischer Schlussweisen trotz der Sokratischen Dichotomie eingegangen werden, wenn fallweise die logischen Terme und Operationen durch äquivalente wahrscheinlichkeitstheoretische ersetzt werden. Die Theorie des plausiblen induktiven Schließens wurde durch den ungarischen Mathematiker George Pólya in zwei Büchern veröffentlicht[12].
Als plausible Schlüsse bezeichnet Pólya "Beweise" der Art
Das Opfer wurde mit Cyankali vergiftet.
Der Angeklagte beschaffte sich kurz vor dem Mord Cyankali.
_________________________________________________________________Also ist der Angeklagte (vermutlich) der Mörder.
Beide Vordersätze sind partikulär, und damit folgt aus ihnen nach den Regeln der klassischen Logik überhaupt nichts. Deswegen reicht dieser Schluss als einziges Beweismittel auch sicher nicht aus. Gibt es mehrere solche Indizienbeweise, summiert ein Mensch irgendwie Wahrscheinlichkeiten, und irgendwann werden sie für ihn zur Gewissheit.
Da Menschen somit Plausibilitäten als Wahrscheinlichkeiten ansehen, bildet Polya sie auf solche ab. Er definiert Beweismuster, welche den klassischen Beweisfiguren entsprechen. Behandelt man sie auf einer der Wahrscheinlichkeitsrechnung nachgebildeten Basis, so kann man bei mehreren, unterschiedlichen Instanzen eines geeigneten Beweismusters mit dem gleichen Schlusssatz Polyas Maß für die Plausibilität durch Addition der Wahrscheinlichkeiten immer mehr bis auf nahezu 1 steigern. Formal korrekte logische Beweise, deren Vordersätze nur Gewißheiten sind, liefern so gegebenenfalls auch plausible Begründungen des Schlusssatzes, dessen Gewissheit im Prinzip berechenbar ist. Damit gelten die auf der klassischen Logik beruhenden dialektischen Methoden wie etwa die Begriffsdistinktion weiter, wenn nur anstelle von Wahrheiten Gewissheiten angenommen und diese korrekt abgeschätzt oder – besser – wahrscheinlichkeitstheoretisch berechnet werden.
Konstruktive Wissenstechnologie
Wissenstechnologie ist demnach die technologische Unterstützung und Umsetzung der Erkenntnistheorie als Basis alle wissenschaftlich begründbaren Verfahren zur Erlangung, Verifikation und Nutzung von Wissen. Deren zentrales Problem ist dabei seit jeher die Verifikation: Die Sokratische Dichotomie, also die bewiesene Tatsache, dass ein Mensch die Realität grundsätzlich nicht erkennen kann, war für mehr als zwei Jahrtausende das Kernproblem. Die Erkenntnistheorie bemühte sich, Methoden und Kriterien zu finden, ob und wie Wirklichkeiten an die Realität angenähert und der Erfolg nachgewiesen, gemessen oder abgeschätzt werden könne. Für die Frustration dieses Bemühens ist der bekannte Faust-Monolog („... und weiß, daß wir nichts wissen können …“) der beste Beleg. Auf Grund dieser Erfolglosigkeit blieb die Erkenntnistheorie denn auch ein ziemlich theoretisches und konsequenzenloses Teilgebiet der Philosophie.
Das änderte sich mit dem Konstruktivismus, dessen führende Vertreter im deutschen Sprachraum Rupert Lay, Paul Lorenzen und Paul Watzlawick sind. Die Idee ist, die vergeblichen Versuche einer optimalen Annäherung von Wirklichkeiten an die Realität aufzugeben. Stattdessen sollen Erkenntnisse dazu dienen, geeignete und nützliche Wirklichkeiten zu konstruieren – daher der Name. „Geeignet“ ist dabei ein technisch-ökonomisches und „nützlich“ ein soziologisch-ökologisches Kriterium: die Ergebnisse sollen sowohl effizient als auch gesellschaftlich optimal sein. Dieser Aspekt ermöglichte eine weit rationalere, ergebnisorientierte Konstruktion von Wirklichkeiten und deren Umsetzung in technische Verfahren und Produkte.
Konstruktive Führung und Dokumentation technischer Projekte
Im Gegensatz zur traditionellen Erkenntnistheorie erwies sich dieser neue Ansatz gerade in der technisch-wirtschaftlichen Praxis als überraschend fruchtbar und nützlich. Die Konzeption und vor allem die langfristige Projektdokumentation von Vorhaben aller Art und Größenordnung, die bisher mangels einer soliden, theoretischen Basis oft als "Wunschliste" begannen und im Chaos unerfüllter und unkontrollierbarer Bedingungen endeten, wurden mit dem Aufstellen von Bedingungslisten und deren systematischer Umformung in und Ergänzung durch die verscheidensten Dokumentationen des Projektfortschritts beherrschbar und wartbar: jede Änderung von Bedingungen, etwa durch Gesetzesänderung oder neue Forderungen, lässt sich in der Dokumentation leicht auffinden und – wenn nötig – durch entsprechende Anpassungen betroffener Projektteile berücksichtigen.
Die Dokumentation wird dabei als „Protokoll der Erkenntnisprozesse“ verstanden, die zu den Realisierungsentscheidungen und Entwicklungen führten. Ausgehend von den Bedingungskatalogen und den daraus abgeleiteten Bäumen sowie weiteren Konstrukten wie einem hierarchischen Benutzermodell entsteht sein semantisches Netz als Superstruktur über der im Wesentlichen unveränderten, gewohnten Projektdokumentation. Diese Struktur ermöglicht die Konzeption und Implementierung bisher nicht realisierbarer Verwaltungs-, Recherche-, Problemerkennungs- und Versionsführungswerkzeuge.
Dieses neue Objektmodell und seine praktische Anwendung bei der Konzeption, Führung und Dokumentation der verschiedensten Vorhaben und Projekte begründet die Konstruktive Wissenstechnologie als ihre bisher erfolgreichste und nützlichste Anwendung.
Literatur
- Lay, Rupert: Grundzüge einer komplexen Wissenschaftstheorie, Bd. 1: Grundlagen und Wissenschaftslogik. Freiburg im Breisgau: Josef Knecht Verlag, 1971. ASIN: B0029WGD26
- Lay, Rupert: Kommunikation für Manager. Düsseldorf: ECON Taschenbuch-Verlag, 1991. ISBN 978-3-612-21137-8
- Lay, Rupert: Wie man sinnvoll miteinander umgeht. Düsseldorf: ECON Taschenbuch-Verlag, 1992. ISBN 978-3-430-15935-7
Einzelnachweise
- ↑ Schnupp, Peter; Leibrandt, Ute: Expertensysteme – Nicht nur für Informatiker. Berlin: Springer 1986
- ↑ Geiger, Daniel: Wissen und Narration – Der Kern des Wissensmanagements. Schmidt, Berlin 2005, S. 10. ISBN 978-3-503-09085-3 und Mentsch, Dietrich 1989: Text- und Bildoptimierung. Theoretische Voraussetzungen für die praktische Optimierung von Print- und AV-Medien: Verständlichkeitsforschung und Wissenstechnologie. In: Antos, Gert; Augst, Gerhard (Hrsg): Textoptimierung. Das Verständlichermachen von Texten als linguistisches, psychologisches und praktisches Problem. Frankfurt am Main/Bern/New York/Paris: 8-37
- ↑ Vgl. Schnupp, P.; Huu, C.T.Nguyen: Expertensystem-Praktikum. Heidelberg: Springer 1987 und Thuy, N.H.C.; Schnupp, Peter: Wissensverarbeitung und Expertensysteme. Oldenbourg 1989
- ↑ Karl Ernst Georges: Ausführliches lateinisch-deutsches Handwörterbuch. Hannover 1913 (Nachdruck Darmstadt 1998), Band 1, Sp. 1372
- ↑ Lay, Rupert: Kommunikation für Manager. Düsseldorf: ECON Taschenbuch-Verlag, 1991; Lay, Rupert: Wie man sinnvoll miteinander umgeht. Düsseldorf: ECON Taschenbuch-Verlag, 1992
- ↑ Rupert Lay: Ethik für Manager, Methoden des erfolgreichen Angriffs und der Abwehr
- ↑ http://www.projektwerkstatt.de/hoppetosse/hierarchNIE/reader/entscheidung02.html
- ↑ http://www.slideshare.net/pscheir/ontologie-et-al-begriffsdefinitionen-im-kontext-wissensreprsentation
- ↑ http://www.fh-wedel.de/~si/seminare/ws04/Ausarbeitung/5.Prolog/LogPro5.htm
- ↑ http://www.uni-due.de/imperia/md/content/computerlinguistik/benutzermodellierung_fische.pdf
- ↑ http://plato.stanford.edu/entries/ockham
- ↑ Pólya, George: Mathematics and Plausible Reasoning. Princeton N.J.: Princeton University Press 1968, 2 Bände
Wikimedia Foundation.