Welche Bedeutung hat Bedeutung für die natürliche und die maschinelle Kognition …

… und was ist “Bedeutung” überhaupt?

Die problemübergeordnete Intelligenz, zu der Menschen fähig sind, ist in der maschinellen Umsetzung zwar nicht ungelöst, findet aber auf Kosten der Verarbeitungsleistung statt, die gar nicht hoch genug sein kann um komplexere Anforderungen zu erfüllen. Das liegt am progressiv ansteigenden Aufwand, jeden Sachzusammenhang zu analysieren und zu bewerten, ihn also zu trainieren, z.B. im Neuronalen Netz oder vergleichbaren (genetische) Konstruktionen zu prägen. Für den Umstand ursächlich ist, dass die Maschine in die Verarbeitung nur dürftig einbeziehen kann, was bedeutend ist, also relevant. Dem würde sie sich z.B. gezielter zuwenden können, statt alle Aspekte gleich zu behandeln und zu verfolgen, wie sie es im Moment tut. Relevanz ist schließlich auch der Schlüsselwert in Neuronalen Netzen. Neuronen feuern, wenn ein Aktionspotential getroffen oder überschritten wird, geben so Information an nachgeordnete weiter.
Ohne Kognition ist die Relevanz nur prägbar und das nicht mal besonders sicher, weil sich nicht gut differenzieren lässt, welche Bestandteile eines Herleitungsstrangs ein richtiges oder falsches Ergebnis begründen. Darum erhöht bzw. verringert man die Relevanz aller beteiligten Aspekte. Entsprechend unscharf ist die Bewertung dann. Nach höherem Trainingsaufwand differenzieren die Neuronennetze selbst nicht mehr gut genug und werden betriebsblind. Das natürliche neuronale Netz hat an dieser Stelle eine Prägungsfunktionalität durch Rückkopplung, der man langsam auf der Spur ist.

Für ein biologisches Wesen ist definiert, was grundsätzlich relevant ist. Seine Funktionalität basiert auf Entwicklung und darin eingebettet darauf, der Umgebung zu entsprechen, damit diese es zumindest akzeptiert, besser noch begünstigt. Es sind die gegeneinander gerichteten Bedeutungsaspekte “Bestand” und “Dynamik”, welche es an der Situation flexibel wahrnimmt. Etwas verbleibt oder etwas ändert sich, beides ist nicht gleichzeitig auf denselben Aspekt anwendbar, beides muss aber ausgewogen gewährleistet sein, soll Entwicklung stattfinden. Das Maß des Erfolges stellt an der Situation fest, wie zuträglich oder abträglich ein Verhalten war.

Was für das Wesen selbst relevant ist, definiert (für es) auch, welche Umgebungsaspekte relevant sind. Die grundlegende Feststellung der Bedeutung seiner selbst und der Umwelt ist damit systeminhärent. Mit dieser Tatsache ist zu rechtfertigen, die Qualität Künstlicher Intelligenz daran zu bewerten, wie gut sie dem Menschen entspricht. Zum einen kann er nicht prüfen, ob sie für wichtig nimmt, was wichtig ist ohne das von seiner Einschätzung abhängig zu machen. Andererseits sind daraus resultierende Ergebnisse nur in soweit anerkennenswert, wie es Menschen können. Der Nutzen ist nur der, den Menschen davon haben.

Für Computer sind die Zustände 0 und 1 grundlegend und Software behandelt sie so gut wie gleichwertig, weil sich die komplexen Behandlungen darauf gleichwertig beziehen. Es ist also die Software gefordert, im Computer zu verankern, was bedeutsam ist, jedes Programm tut es im Rahmen seiner Arbeitsweise. Das ist aber nur im Anwendungsrahmen gültig und nicht zu verallgemeinern, bis auf ein paar grundlegende Aspekte, die auf Prozessorebene und so tief integriert sind, z.B. “größer als”, “kleiner als” und “gleich”. Damit ist selbst für das Rechending zwar nur aber schon recht gut abgebildet, wie man lernen kann, nämlich durch Differenzierung (Analyse) um das Ergebnis zu abstrahieren und anzuwenden (Entsprechung/Synthese).

Solche Prozesse fanden auch in der Natur statt, bevor (wodurch) sie selbstlernende Wesen hervorbrachte. Sie prägte, was in seiner Umgebung beständig ist, indem sie übrig ließ, was auf die wechselnden Bedingungen nicht nur flexibel sondern auch erfolgreich reagieren und darin agieren konnte. Der Prozess der Entwicklung machte das möglich, natürliche Auslese ist Differenzierung im Rahmen von Entsprechung. In den lernenden Wesen findet diese Entwicklung nicht mehr allein dadurch statt sondern in ihren Köpfen bei der Prägung der neuronalen Strukturen. Dort wird ebenfalls vernachlässigt (manchmal eliminiert), was auf Dauer unnütz wurde, weil es entweder nach geänderten Bedingungen obsolet war oder durch Tauglicheres ersetzt wurde, das hinzu kam. Im künstlichen Neuronalen Netz ist Konsolidierung nicht vorgesehen. Man arbeitet aber daran.

Schon vorher nahm jedes Wesen als bedeutend wahr, was es in seine Funktionalität einbezog. Das Wasser z.B. in dem es entstand und das hindurch fließt, verkörpert Bestand und Dynamik in sehr ausgewogener Weise. Computer können mit Wasser nur schwer umgehen, verwenden es heute immerhin zur Kühlung. Die Wesensmerkmale des Stoffs verkörpern darum universeller, was Bedeutung hat, als der Trieb (Durst). Computer haben keinen.

Ausgewogenheit

ist ein Relevanzmerkmal, das unsere künstlichen Intelligenzen zu schlecht wahrnehmen, was darin resultiert, dass sie auf multipler Ebene bis zum Exzess (Überlauf) schwingen, selbst oder gerade wo Kontrolle versucht wird. Das Streben zu Harmonie ist hingegen im Verhalten jedes Lebewesens zellular realisiert, weil es ihm auf die Anpassung an die Umgebungsbedingungen ankommt. Zwischen ihm und ihnen muss zumindest in soweit Harmonie vorherrschen, dass der Bestand und seine Dynamik akzeptiert ist und die Umgebungsbeeinträchtigung im Rahmen dessen bleibt und erhält, worauf das Wesen angewiesen ist.

Jeder Trieb im Lebewesen ist ein Relevanzmerkmal, weil er darstellt, worauf es beiden ankommt. So wie Wasser das Merkmal der Harmonie in sich trägt, birgt es noch weitere und auch alle anderen Triebe lassen sich nicht nur direkt auf Bestand und Dynamik herunter brechen sondern auch in einem übergeordneten Kontext und trotzdem scharf dorthin abstrahieren:
– Wasser -> Transparenz, Klarheit, Wahrheit, Wirklichkeit -> Bestand
– … , Wirklichkeit, Folgerung, Anwendung, Potential -> Dynamik
– Nahrung -> Betriebsstoff, Energie -> Dynamik
– ———> Baustoff -> Bestand
Sexualität -> Replikation -> Bestand
– ———-> Symbiose, Synergie -> Dynamik
Freiheit -> Entfaltungsraum -> Bestand
——— -> Wirkungsraum, Geltungsraum für Potential -> Dynamik

Einige Triebe sind anderen übergeordnet, wie z.B. der Sozialtrieb bei geeigneter Wahrnehmung (Erkennung/ Anwendung) alle Triebe erfüllt. Freiheit zunächst nur bedingt, weil Protokollbindung contra Individualität gegeben ist, andererseits aber Intimität und Geborgenheit ansteigen. Beides erhöht den Freiheitspegel wieder (innerhalb des Schutzraums und der gegenseitigen Gewöhnung/Akzeptanz). Hier wird erkennbar, dass auch die Triebe selbst gegensätzlichen Zielen entsprechen, also ein an der Situation orientiertes ausgewogenes Verhältnis anzustreben ist. Harmonie in der Beziehung zwischen Umgebung und Individuum, sowie darin.

Signifikanz

Beim Training an einer hohen Datenmenge zu allem Überfluss vielleicht auch noch an Messwerten ist Signifikanz schlecht zu ermitteln. Unscharfe und falsche Werte weisen keine auf, darum fallen im Verhältnis signifikant andersartige kaum ins Gewicht. Die Verfahren machen darin keinen rechten Unterschied. Auffällige Abweichungen sind nämlich leicht Messfehler und werden gerne ausgefiltert. Abweichung ist im Rahmen von Differenzierung aber relevant und Auffälligkeit ist erkannte Relevanz höchstselbst. Die Klarheit der Daten ist auf dieser Ebene nicht gewährleistet. Es steht bei den künstlich intelligenten Systemen aber im Vordergrund sehr wohl mit unscharfen Daten umzugehen und Messfehler niedriger zu bewerten oder gar mit den übrigen Daten zu mitteln, wonach alle falsch sind.

Falsifikation

Als falsch Erkanntes, ist für das lernende Wesen relevant, weil in der Praxis schmerzhaft/deprimierend. Die dazu gehörende Datenlandschaft wird in der KI aber nicht zielgerichtet angewendet. Stattdessen führen die Aspekte zu einer groben Relevanzreduzierung unzutreffender Folgerungen, so dass diese zwar nachrangig als Lösungsergebnis herangezogen werden, nicht hingegen zur übergreifenden Filterung ergebnisstimmiger Folgerungslogik. Stattdessen bleibt das System ungehindert, beides weiterzuverfolgen. Kommen unscharfe oder womöglich fehlerhafte Daten dazu, ist Falsifikation nicht treffsicher vorzunehmen. Sie würde dann bei der Analyse hemmen, weil falsch anmutet, was bei korrekter Messung richtig wäre. (10^-129 0).

Simplifikation

Ist bereits gelöst, einfache Wahrheiten sind schlagkräftig und breitbandig anwendbar, darum relevant. Im Dienste des zu minimierenden Aufwands geht das quasi von alleine so. Datamining kann so etwas durch hartes Clustering erreichen. Die Ergebnisse sind aber noch unbefriedigend, weil sie auf der Hand liegen. Höhere Analyse ist an der Datenmenge wieder aufwändig, braucht Rechenzeit, müsste selektiver sein. Falsche, zumindest fehlerhafte und unscharfe Daten helfen dabei auch nicht gerade.

Kognition, ist auf korrekte und scharfe Daten angewiesen. Darum müssen wir zwischen Mustererkennungssystemen und maschineller Kognition unterscheiden. Der Mensch vereint beide Systeme mit seinem Verstand, der selektiv ist. Die Mustererkennung braucht er einerseits weil von dort die Werte kommen. Andererseits sollte er für die weitere Analyse nur relevante und stichhaltige Daten heranziehen. Sonst führt sie ihn in ein weites virtuelles Feld, dessen Ausbeutung den Aufwand nicht rechtfertigt, kreativ ist. Relevanzmerkmale sind der Schlüssel dazu. Davon gibt es noch viele mehr, von denen die Philosophie schon einige erhob. Allerdings hängen sie zum Teil voneinander ab oder führen zueinander, sind ambivalent, wie die biologischen Triebe.

Kognitionssysteme trainieren anders als bisherige Technologien und ihre Ergebnisse sind in anderer Weise nützlich. An den Stellen, an denen wir selbst genug wissen, können wir sie um den Erfahrungsstand bereichern. Mustererkennungssysteme bieten dafür keine Ansätze, wir wüssten nicht wo und wie. Wir könnten ihnen die Begleitinformationen zum freien Einbau anbieten. Noch mehr unzugeordnete Daten helfen ihnen aber nicht. Sie zu ordnen setzt voraus, das Ordnungssystem des Netzes zu bedienen, worüber wir wenig bis gar nichts wissen.
Kognitionssysteme können auf ihren Ergebnissen aufbauen, sich entwickeln. Mustererkennungssysteme sind darin beschränkt. Die Ergebnisse lassen sich nicht auf wesentliche Schlüsse reduzieren und modularisieren. Damit ist der progressive Aufwand deutliches Hemmnis.

Abstraktion

Ergebnisse in Überordnungen zu führen und daraus den Daten wieder neue Erkenntnisse zu entnehmen, wo sie dann Übereinstimmungen oder Signifikanz aufweisen ist ebenfalls nur möglich, wenn der Datenmatsch klarer ist, als bisher. Das Konzept der Entwicklung, also sichere Erkenntnisse überhaupt erlangen zu können um darauf aufzubauen, andere Daten davon zu unterscheiden z.B., ist mit den bisherigen Methoden nicht gangbar. Die können nur von Rechenkapazitäten profitieren und das nur schwach, weil der Aufwand mit den Daten progressiv ansteigt.

Da die Simulation eines Ladungsflusses immer langsamer ist, als der selbst, wird erst auf die Funktionalität ausgerichtete Hardware einen ausreichenden Leistungshintergrund bieten, so nah an die menschliche Informationsverarbeitung zu gelangen, wie es geplant war. Aber es ist möglich. Ein erster Schritt könnten Hardwareeinheiten sein, die ihre Zustandspegel nicht auf 0 und 1 reduzieren müssen um noch genau und sicher zu verarbeiten (analoge). Auf dem Sektor haben wir einige Entwicklung vollzogen, die sich in jüngster Technologie manifestierte und noch weiter führen kann. Von der anderen Seite steuern Quantencomputer auf uns zu, die nicht nur massiv gesteigerte Geschwindigkeit versprechen sondern potentiell die Betrachtung ambivalenter und zirkulärer Beziehungen in höherer Auflösung oder Dichte erlauben. Gegenwärtig versuchen wir noch, ihnen das Rechnen mit 0 und 1 beizubringen. Sie wären zu mehr in der Lage, aber wir müssen auf dem aufbauen, was wir haben, kennen und gut können — Entwicklung eben.

Solange wird maschinelle Kognition vor allem in der Mathematik zur Anwendung kommen, die klare Daten und einen konkret mitteilbaren Funktionshintergrund vorweisen kann, an dem trainiert wird, richtige von falschen Ergebnissen detailgenau unterscheidet statt gutzuheißen, was sich in einem annehmbaren Rahmen bewegt. Daraus wird das System Erkenntnisse ableiten können, die uns noch nicht vorliegen, zu ungelösten Problemen und Fragestellungen beispielsweise. Das ist konstruktive wenn auch nicht kreative Intelligenz jenseits menschlicher und so weit leistungsfähiger als die. Weil der Computer in vielem effektiver arbeitet als ein Mensch. Er vergisst nichts, bleibt an der Aufgabe konzentriert, ist genügsam und stets so detailgerecht und korrekt, wie es die Daten sind.

Einerseits sind mathematische Zusammenhänge für den Rechenknecht besonders gut zu verarbeiten und andererseits nehmen wir Menschen heute die schlüssige Feststellung dessen was sich zuträgt ebenfalls mathematisch vor. Das ist die Schnittstelle zwischen maschineller Kognition und ihrer praktischen Anwendung.

Dass wir oft genug mit unscharfen Daten umgehen müssen ist ein Tribut an unsere Fehlbarkeit, unser Informationsdefizit und der Unzulänglichkeit der Messgeräte. Die These ist, dass die Umgebungsinformation zwar scharf ist, uns aber nur vermischt vorstellig wird. Dann liegt in den Daten nicht Kontamination vor sondern Unfähigkeit bei der Messung und Ahnungslosigkeit bei der Interpretation. Die Antithese ist für die Anwendung hingegen mit Gödel und Heisenberg recht gut belegt.

Dass auch unter solchen Umständen Kognition gelingt, beweisen Menschen, deren Feststellungen mit “Irgendwie” beginnen respektive auf “, oder so.” enden. Das sind keine scharfen Daten und dennoch entwickeln sie sich und ihre Umgebung daran.

An unsere Datenverarbeitungsanlagen richten wir andere Ansprüche. Sie können uns kein Bild malen, das wir intuitiv auswerten, ein Lied singen oder das Ergebnis ihrer Auswertung lyrisch vortragen. Hier wie dort sind die Genauigkeit und die Treffsicherheit der Ergebnisse von derselben Qualität der Daten abhängig, die sie für die Analyse heranziehen. You only get out, what you input.

Biologische Wesen die nunmal mit den unscharfen Daten ihrer Sensoren umgehen müssen, wenden die körperliche Entwicklung an, um Relevanzen eine Chance zu geben. So ist beispielsweise das Sehen beim Neugeborenen unterentwickelt, wodurch visuell von Anfang an nur wahrgenommen wird, was in diesem Rahmen auffällig ist, groß, hell, dunkel. Mit jedem Tag schärft sich die Sicht, Formen werden erkennbar (kantige, runde, spitze, weiche, symmetrische, asymmetrische). Reflektionen (aus hell/dunkel) und Farben kommen dazu . Korrespondierend mit den anderen Sinnen werden weitere Merkmale auf den Sichteindruck appliziert, Distanzen und Materialbeschaffenheit z.B. mit dem Gehör und dem Tastsinn.
Alle, was neu erlebt wird, ist relevant, weil neu (->Neugiertrieb). Es ist gegen die bisherige Erfahrung alleingestellt betrachtbar, weil und worin es sich von ihr unterscheidet. Bekannte Merkmale sind angenehm, weil vertraut. Differenzierung und Entsprechung finden in diesem Rahmen statt. Die Daten klären sich. Später werden sie mit Symbolen versehen (benannt), wobei jeder Aspekt bereits mindestens ein Symbol hatte, ein Neuron im Hirn, das feuert, wenn der (mithin zusammengesetzte) Reiz eintrifft.

Solchem Vorgehen der Entwicklung kann in den uns vorliegenden KI-Systemen kaum gezielt Rechnung getragen werden. Wir können sie nicht an simplen und weichen Daten trainieren und die Ansprüche immer höher schrauben. Die Kapazitäten würden volllaufen und der Prozessaufwand nicht leistbare Ausmaße annehmen, bis sie etwas Nützliches können. Sie beziehen sich nicht auf das Wesentliche, das, worauf es ankommt. Dadurch können sie es nicht extrahieren, nicht verständlich kommunizieren, nicht modularisieren, nicht verwerfen und nicht klar genug abstrahieren.

Warum schreibe ich das alles?

Wenn wir eine so klare Vorstellung davon hätten, wie maschinelle Kognition stattdessen funktionieren muss, hätten wir sie bereits. Indem wir ermitteln, worauf es Menschen im Grunde ankommt bewegen wir uns nicht nur auf dieses Ziel zu sondern erfahren dabei auch jede Menge über uns selbst. Den Menschen mechanistisch zu analysieren (als etwas das funktioniert) mag zwar nicht die angemessene Betrachtungsform sein, es ist aber die einzige, die
– Folgerungen,
– Anwendungen sowie
– konkrete,
– detailgerechte und so
– kommunizierbare Erkenntnisse
verspricht. Daran sind wahrscheinlich alle interessiert, die sich in dieser Gruppe einfanden. Ich hoffe dazu beitragen zu können.
Bedeutung ist der Kern sowohl maschineller als auch natürliche Intelligenz, denn nur was keine hat ist zu vernachlässigen. Je besser wir ihn verstehen, umso besser verstehen wir uns. So wie uns die Tatsache, dass alles eine Bedeutung hat (Chaostheorie) unsere Einschätzungsbandbreite erhöhte und die Humanität auch. So sind die im Weiteren zu klärenden Fragen: Was wofür und wer für wen?

Als einzelner Mensch bin ich einerseits trotz und andererseits wegen der Interdisziplinarität meiner Sichtweise fehleranfällig und meiner Biologie ausgesetzt.
Vieles weiß ich nicht oder nicht genau genug und unterliege dann Irrtümern.
Anderes verstand ich falsch oder unzulänglich.
Weiteres erschließt sich meinem Betrachtungsmodell nicht von alleine (Emergenz).

Also bin ich wie alle auf Austausch angewiesen, der das Datenbild klärt, verfeinert und auf Bestätigung, Abweisung und Korrektur wo ich richtig bzw. falsch liege.

Fühl Dich dazu eingeladen. Das hier ist nur ein grober Umriss eines detaillierteren und umfassenderen Hintergrunds, aus dem ich noch beisteuern kann. Im Austausch und in Grenzen, versteht sich 🙂

Fragen leiten die Überlegungen auch in neue Richtungen, legen sie breiter oder spezifischer aus, klären Unschärfe und vieles mehr. Also:

Ist Relevanz (Bedeutung) als bisheriges Manko und künftiger Schlüssel bei der Ermittlung natürlicher und maschineller Kognition anzuerkennen und anwendbar?
Wenn das schon so lange bekannt ist, warum nahm man sich nicht genau der Frage an?
Worin bestehen demnach die Hemmnisse, was müssen wir dazu klären, was fehlt uns noch?
Mit welchen Methoden sind die Erkenntnisse für die menschliche und die maschinelle Entwicklung umsetzbar? Oder wie und wo sind sie bereits integriert (Nash/Regulierende Dynamik, Genetische Algorithmen)?
Kann jemand auf Philosophen/Wissenschaftler und deren Werke verweisen, die in diesem Zusammenhang auskünftig oder hinweislich sind?
Ist das Thema überhaupt interessant und für wen? Muss ich dazu etwas an der Vortragsweise ändern? Ist das alles zu hoch oder zu flach?
Weitere Fragen?

Schreibe einen Kommentar