Welche Bedeutung hat Bedeutung für die natürliche und die maschinelle Kognition …

… und was ist “Bedeutung” überhaupt?

Die problemübergeordnete Intelligenz, zu der Menschen fähig sind, ist in der maschinellen Umsetzung zwar nicht ungelöst, findet aber auf Kosten der Verarbeitungsleistung statt, die gar nicht hoch genug sein kann um komplexere Anforderungen zu erfüllen. Das liegt am progressiv ansteigenden Aufwand, jeden Sachzusammenhang zu analysieren und zu bewerten, ihn also zu trainieren, z.B. im Neuronalen Netz oder vergleichbaren (genetische) Konstruktionen zu prägen. Für den Umstand ursächlich ist, dass die Maschine in die Verarbeitung nur dürftig einbeziehen kann, was bedeutend ist, also relevant. Dem würde sie sich z.B. gezielter zuwenden können, statt alle Aspekte gleich zu behandeln und zu verfolgen, wie sie es im Moment tut. Relevanz ist schließlich auch der Schlüsselwert in Neuronalen Netzen. Neuronen feuern, wenn ein Aktionspotential getroffen oder überschritten wird, geben so Information an nachgeordnete weiter.
Ohne Kognition ist die Relevanz nur prägbar und das nicht mal besonders sicher, weil sich nicht gut differenzieren lässt, welche Bestandteile eines Herleitungsstrangs ein richtiges oder falsches Ergebnis begründen. Darum erhöht bzw. verringert man die Relevanz aller beteiligten Aspekte. Entsprechend unscharf ist die Bewertung dann. Nach höherem Trainingsaufwand differenzieren die Neuronennetze selbst nicht mehr gut genug und werden betriebsblind. Das natürliche neuronale Netz hat an dieser Stelle eine Prägungsfunktionalität durch Rückkopplung, der man langsam auf der Spur ist.

Für ein biologisches Wesen ist definiert, was grundsätzlich relevant ist. Seine Funktionalität basiert auf Entwicklung und darin eingebettet darauf, der Umgebung zu entsprechen, damit diese es zumindest akzeptiert, besser noch begünstigt. Es sind die gegeneinander gerichteten Bedeutungsaspekte “Bestand” und “Dynamik”, welche es an der Situation flexibel wahrnimmt. Etwas verbleibt oder etwas ändert sich, beides ist nicht gleichzeitig auf denselben Aspekt anwendbar, beides muss aber ausgewogen gewährleistet sein, soll Entwicklung stattfinden. Das Maß des Erfolges stellt an der Situation fest, wie zuträglich oder abträglich ein Verhalten war.

Was für das Wesen selbst relevant ist, definiert (für es) auch, welche Umgebungsaspekte relevant sind. Die grundlegende Feststellung der Bedeutung seiner selbst und der Umwelt ist damit systeminhärent. Mit dieser Tatsache ist zu rechtfertigen, die Qualität Künstlicher Intelligenz daran zu bewerten, wie gut sie dem Menschen entspricht. Zum einen kann er nicht prüfen, ob sie für wichtig nimmt, was wichtig ist ohne das von seiner Einschätzung abhängig zu machen. Andererseits sind daraus resultierende Ergebnisse nur in soweit anerkennenswert, wie es Menschen können. Der Nutzen ist nur der, den Menschen davon haben.

Für Computer sind die Zustände 0 und 1 grundlegend und Software behandelt sie so gut wie gleichwertig, weil sich die komplexen Behandlungen darauf gleichwertig beziehen. Es ist also die Software gefordert, im Computer zu verankern, was bedeutsam ist, jedes Programm tut es im Rahmen seiner Arbeitsweise. Das ist aber nur im Anwendungsrahmen gültig und nicht zu verallgemeinern, bis auf ein paar grundlegende Aspekte, die auf Prozessorebene und so tief integriert sind, z.B. “größer als”, “kleiner als” und “gleich”. Damit ist selbst für das Rechending zwar nur aber schon recht gut abgebildet, wie man lernen kann, nämlich durch Differenzierung (Analyse) um das Ergebnis zu abstrahieren und anzuwenden (Entsprechung/Synthese).

Solche Prozesse fanden auch in der Natur statt, bevor (wodurch) sie selbstlernende Wesen hervorbrachte. Sie prägte, was in seiner Umgebung beständig ist, indem sie übrig ließ, was auf die wechselnden Bedingungen nicht nur flexibel sondern auch erfolgreich reagieren und darin agieren konnte. Der Prozess der Entwicklung machte das möglich, natürliche Auslese ist Differenzierung im Rahmen von Entsprechung. In den lernenden Wesen findet diese Entwicklung nicht mehr allein dadurch statt sondern in ihren Köpfen bei der Prägung der neuronalen Strukturen. Dort wird ebenfalls vernachlässigt (manchmal eliminiert), was auf Dauer unnütz wurde, weil es entweder nach geänderten Bedingungen obsolet war oder durch Tauglicheres ersetzt wurde, das hinzu kam. Im künstlichen Neuronalen Netz ist Konsolidierung nicht vorgesehen. Man arbeitet aber daran.

Schon vorher nahm jedes Wesen als bedeutend wahr, was es in seine Funktionalität einbezog. Das Wasser z.B. in dem es entstand und das hindurch fließt, verkörpert Bestand und Dynamik in sehr ausgewogener Weise. Computer können mit Wasser nur schwer umgehen, verwenden es heute immerhin zur Kühlung. Die Wesensmerkmale des Stoffs verkörpern darum universeller, was Bedeutung hat, als der Trieb (Durst). Computer haben keinen.

Ausgewogenheit

ist ein Relevanzmerkmal, das unsere künstlichen Intelligenzen zu schlecht wahrnehmen, was darin resultiert, dass sie auf multipler Ebene bis zum Exzess (Überlauf) schwingen, selbst oder gerade wo Kontrolle versucht wird. Das Streben zu Harmonie ist hingegen im Verhalten jedes Lebewesens zellular realisiert, weil es ihm auf die Anpassung an die Umgebungsbedingungen ankommt. Zwischen ihm und ihnen muss zumindest in soweit Harmonie vorherrschen, dass der Bestand und seine Dynamik akzeptiert ist und die Umgebungsbeeinträchtigung im Rahmen dessen bleibt und erhält, worauf das Wesen angewiesen ist.

Jeder Trieb im Lebewesen ist ein Relevanzmerkmal, weil er darstellt, worauf es beiden ankommt. So wie Wasser das Merkmal der Harmonie in sich trägt, birgt es noch weitere und auch alle anderen Triebe lassen sich nicht nur direkt auf Bestand und Dynamik herunter brechen sondern auch in einem übergeordneten Kontext und trotzdem scharf dorthin abstrahieren:
– Wasser -> Transparenz, Klarheit, Wahrheit, Wirklichkeit -> Bestand
– … , Wirklichkeit, Folgerung, Anwendung, Potential -> Dynamik
– Nahrung -> Betriebsstoff, Energie -> Dynamik
– ———> Baustoff -> Bestand
Sexualität -> Replikation -> Bestand
– ———-> Symbiose, Synergie -> Dynamik
Freiheit -> Entfaltungsraum -> Bestand
——— -> Wirkungsraum, Geltungsraum für Potential -> Dynamik

Einige Triebe sind anderen übergeordnet, wie z.B. der Sozialtrieb bei geeigneter Wahrnehmung (Erkennung/ Anwendung) alle Triebe erfüllt. Freiheit zunächst nur bedingt, weil Protokollbindung contra Individualität gegeben ist, andererseits aber Intimität und Geborgenheit ansteigen. Beides erhöht den Freiheitspegel wieder (innerhalb des Schutzraums und der gegenseitigen Gewöhnung/Akzeptanz). Hier wird erkennbar, dass auch die Triebe selbst gegensätzlichen Zielen entsprechen, also ein an der Situation orientiertes ausgewogenes Verhältnis anzustreben ist. Harmonie in der Beziehung zwischen Umgebung und Individuum, sowie darin.

Signifikanz

Beim Training an einer hohen Datenmenge zu allem Überfluss vielleicht auch noch an Messwerten ist Signifikanz schlecht zu ermitteln. Unscharfe und falsche Werte weisen keine auf, darum fallen im Verhältnis signifikant andersartige kaum ins Gewicht. Die Verfahren machen darin keinen rechten Unterschied. Auffällige Abweichungen sind nämlich leicht Messfehler und werden gerne ausgefiltert. Abweichung ist im Rahmen von Differenzierung aber relevant und Auffälligkeit ist erkannte Relevanz höchstselbst. Die Klarheit der Daten ist auf dieser Ebene nicht gewährleistet. Es steht bei den künstlich intelligenten Systemen aber im Vordergrund sehr wohl mit unscharfen Daten umzugehen und Messfehler niedriger zu bewerten oder gar mit den übrigen Daten zu mitteln, wonach alle falsch sind.

Falsifikation

Als falsch Erkanntes, ist für das lernende Wesen relevant, weil in der Praxis schmerzhaft/deprimierend. Die dazu gehörende Datenlandschaft wird in der KI aber nicht zielgerichtet angewendet. Stattdessen führen die Aspekte zu einer groben Relevanzreduzierung unzutreffender Folgerungen, so dass diese zwar nachrangig als Lösungsergebnis herangezogen werden, nicht hingegen zur übergreifenden Filterung ergebnisstimmiger Folgerungslogik. Stattdessen bleibt das System ungehindert, beides weiterzuverfolgen. Kommen unscharfe oder womöglich fehlerhafte Daten dazu, ist Falsifikation nicht treffsicher vorzunehmen. Sie würde dann bei der Analyse hemmen, weil falsch anmutet, was bei korrekter Messung richtig wäre. (10^-129 0).

Simplifikation

Ist bereits gelöst, einfache Wahrheiten sind schlagkräftig und breitbandig anwendbar, darum relevant. Im Dienste des zu minimierenden Aufwands geht das quasi von alleine so. Datamining kann so etwas durch hartes Clustering erreichen. Die Ergebnisse sind aber noch unbefriedigend, weil sie auf der Hand liegen. Höhere Analyse ist an der Datenmenge wieder aufwändig, braucht Rechenzeit, müsste selektiver sein. Falsche, zumindest fehlerhafte und unscharfe Daten helfen dabei auch nicht gerade.

Kognition, ist auf korrekte und scharfe Daten angewiesen. Darum müssen wir zwischen Mustererkennungssystemen und maschineller Kognition unterscheiden. Der Mensch vereint beide Systeme mit seinem Verstand, der selektiv ist. Die Mustererkennung braucht er einerseits weil von dort die Werte kommen. Andererseits sollte er für die weitere Analyse nur relevante und stichhaltige Daten heranziehen. Sonst führt sie ihn in ein weites virtuelles Feld, dessen Ausbeutung den Aufwand nicht rechtfertigt, kreativ ist. Relevanzmerkmale sind der Schlüssel dazu. Davon gibt es noch viele mehr, von denen die Philosophie schon einige erhob. Allerdings hängen sie zum Teil voneinander ab oder führen zueinander, sind ambivalent, wie die biologischen Triebe.

Kognitionssysteme trainieren anders als bisherige Technologien und ihre Ergebnisse sind in anderer Weise nützlich. An den Stellen, an denen wir selbst genug wissen, können wir sie um den Erfahrungsstand bereichern. Mustererkennungssysteme bieten dafür keine Ansätze, wir wüssten nicht wo und wie. Wir könnten ihnen die Begleitinformationen zum freien Einbau anbieten. Noch mehr unzugeordnete Daten helfen ihnen aber nicht. Sie zu ordnen setzt voraus, das Ordnungssystem des Netzes zu bedienen, worüber wir wenig bis gar nichts wissen.
Kognitionssysteme können auf ihren Ergebnissen aufbauen, sich entwickeln. Mustererkennungssysteme sind darin beschränkt. Die Ergebnisse lassen sich nicht auf wesentliche Schlüsse reduzieren und modularisieren. Damit ist der progressive Aufwand deutliches Hemmnis.

Abstraktion

Ergebnisse in Überordnungen zu führen und daraus den Daten wieder neue Erkenntnisse zu entnehmen, wo sie dann Übereinstimmungen oder Signifikanz aufweisen ist ebenfalls nur möglich, wenn der Datenmatsch klarer ist, als bisher. Das Konzept der Entwicklung, also sichere Erkenntnisse überhaupt erlangen zu können um darauf aufzubauen, andere Daten davon zu unterscheiden z.B., ist mit den bisherigen Methoden nicht gangbar. Die können nur von Rechenkapazitäten profitieren und das nur schwach, weil der Aufwand mit den Daten progressiv ansteigt.

Da die Simulation eines Ladungsflusses immer langsamer ist, als der selbst, wird erst auf die Funktionalität ausgerichtete Hardware einen ausreichenden Leistungshintergrund bieten, so nah an die menschliche Informationsverarbeitung zu gelangen, wie es geplant war. Aber es ist möglich. Ein erster Schritt könnten Hardwareeinheiten sein, die ihre Zustandspegel nicht auf 0 und 1 reduzieren müssen um noch genau und sicher zu verarbeiten (analoge). Auf dem Sektor haben wir einige Entwicklung vollzogen, die sich in jüngster Technologie manifestierte und noch weiter führen kann. Von der anderen Seite steuern Quantencomputer auf uns zu, die nicht nur massiv gesteigerte Geschwindigkeit versprechen sondern potentiell die Betrachtung ambivalenter und zirkulärer Beziehungen in höherer Auflösung oder Dichte erlauben. Gegenwärtig versuchen wir noch, ihnen das Rechnen mit 0 und 1 beizubringen. Sie wären zu mehr in der Lage, aber wir müssen auf dem aufbauen, was wir haben, kennen und gut können — Entwicklung eben.

Solange wird maschinelle Kognition vor allem in der Mathematik zur Anwendung kommen, die klare Daten und einen konkret mitteilbaren Funktionshintergrund vorweisen kann, an dem trainiert wird, richtige von falschen Ergebnissen detailgenau unterscheidet statt gutzuheißen, was sich in einem annehmbaren Rahmen bewegt. Daraus wird das System Erkenntnisse ableiten können, die uns noch nicht vorliegen, zu ungelösten Problemen und Fragestellungen beispielsweise. Das ist konstruktive wenn auch nicht kreative Intelligenz jenseits menschlicher und so weit leistungsfähiger als die. Weil der Computer in vielem effektiver arbeitet als ein Mensch. Er vergisst nichts, bleibt an der Aufgabe konzentriert, ist genügsam und stets so detailgerecht und korrekt, wie es die Daten sind.

Einerseits sind mathematische Zusammenhänge für den Rechenknecht besonders gut zu verarbeiten und andererseits nehmen wir Menschen heute die schlüssige Feststellung dessen was sich zuträgt ebenfalls mathematisch vor. Das ist die Schnittstelle zwischen maschineller Kognition und ihrer praktischen Anwendung.

Dass wir oft genug mit unscharfen Daten umgehen müssen ist ein Tribut an unsere Fehlbarkeit, unser Informationsdefizit und der Unzulänglichkeit der Messgeräte. Die These ist, dass die Umgebungsinformation zwar scharf ist, uns aber nur vermischt vorstellig wird. Dann liegt in den Daten nicht Kontamination vor sondern Unfähigkeit bei der Messung und Ahnungslosigkeit bei der Interpretation. Die Antithese ist für die Anwendung hingegen mit Gödel und Heisenberg recht gut belegt.

Dass auch unter solchen Umständen Kognition gelingt, beweisen Menschen, deren Feststellungen mit “Irgendwie” beginnen respektive auf “, oder so.” enden. Das sind keine scharfen Daten und dennoch entwickeln sie sich und ihre Umgebung daran.

An unsere Datenverarbeitungsanlagen richten wir andere Ansprüche. Sie können uns kein Bild malen, das wir intuitiv auswerten, ein Lied singen oder das Ergebnis ihrer Auswertung lyrisch vortragen. Hier wie dort sind die Genauigkeit und die Treffsicherheit der Ergebnisse von derselben Qualität der Daten abhängig, die sie für die Analyse heranziehen. You only get out, what you input.

Biologische Wesen die nunmal mit den unscharfen Daten ihrer Sensoren umgehen müssen, wenden die körperliche Entwicklung an, um Relevanzen eine Chance zu geben. So ist beispielsweise das Sehen beim Neugeborenen unterentwickelt, wodurch visuell von Anfang an nur wahrgenommen wird, was in diesem Rahmen auffällig ist, groß, hell, dunkel. Mit jedem Tag schärft sich die Sicht, Formen werden erkennbar (kantige, runde, spitze, weiche, symmetrische, asymmetrische). Reflektionen (aus hell/dunkel) und Farben kommen dazu . Korrespondierend mit den anderen Sinnen werden weitere Merkmale auf den Sichteindruck appliziert, Distanzen und Materialbeschaffenheit z.B. mit dem Gehör und dem Tastsinn.
Alle, was neu erlebt wird, ist relevant, weil neu (->Neugiertrieb). Es ist gegen die bisherige Erfahrung alleingestellt betrachtbar, weil und worin es sich von ihr unterscheidet. Bekannte Merkmale sind angenehm, weil vertraut. Differenzierung und Entsprechung finden in diesem Rahmen statt. Die Daten klären sich. Später werden sie mit Symbolen versehen (benannt), wobei jeder Aspekt bereits mindestens ein Symbol hatte, ein Neuron im Hirn, das feuert, wenn der (mithin zusammengesetzte) Reiz eintrifft.

Solchem Vorgehen der Entwicklung kann in den uns vorliegenden KI-Systemen kaum gezielt Rechnung getragen werden. Wir können sie nicht an simplen und weichen Daten trainieren und die Ansprüche immer höher schrauben. Die Kapazitäten würden volllaufen und der Prozessaufwand nicht leistbare Ausmaße annehmen, bis sie etwas Nützliches können. Sie beziehen sich nicht auf das Wesentliche, das, worauf es ankommt. Dadurch können sie es nicht extrahieren, nicht verständlich kommunizieren, nicht modularisieren, nicht verwerfen und nicht klar genug abstrahieren.

Warum schreibe ich das alles?

Wenn wir eine so klare Vorstellung davon hätten, wie maschinelle Kognition stattdessen funktionieren muss, hätten wir sie bereits. Indem wir ermitteln, worauf es Menschen im Grunde ankommt bewegen wir uns nicht nur auf dieses Ziel zu sondern erfahren dabei auch jede Menge über uns selbst. Den Menschen mechanistisch zu analysieren (als etwas das funktioniert) mag zwar nicht die angemessene Betrachtungsform sein, es ist aber die einzige, die
– Folgerungen,
– Anwendungen sowie
– konkrete,
– detailgerechte und so
– kommunizierbare Erkenntnisse
verspricht. Daran sind wahrscheinlich alle interessiert, die sich in dieser Gruppe einfanden. Ich hoffe dazu beitragen zu können.
Bedeutung ist der Kern sowohl maschineller als auch natürliche Intelligenz, denn nur was keine hat ist zu vernachlässigen. Je besser wir ihn verstehen, umso besser verstehen wir uns. So wie uns die Tatsache, dass alles eine Bedeutung hat (Chaostheorie) unsere Einschätzungsbandbreite erhöhte und die Humanität auch. So sind die im Weiteren zu klärenden Fragen: Was wofür und wer für wen?

Als einzelner Mensch bin ich einerseits trotz und andererseits wegen der Interdisziplinarität meiner Sichtweise fehleranfällig und meiner Biologie ausgesetzt.
Vieles weiß ich nicht oder nicht genau genug und unterliege dann Irrtümern.
Anderes verstand ich falsch oder unzulänglich.
Weiteres erschließt sich meinem Betrachtungsmodell nicht von alleine (Emergenz).

Also bin ich wie alle auf Austausch angewiesen, der das Datenbild klärt, verfeinert und auf Bestätigung, Abweisung und Korrektur wo ich richtig bzw. falsch liege.

Fühl Dich dazu eingeladen. Das hier ist nur ein grober Umriss eines detaillierteren und umfassenderen Hintergrunds, aus dem ich noch beisteuern kann. Im Austausch und in Grenzen, versteht sich 🙂

Fragen leiten die Überlegungen auch in neue Richtungen, legen sie breiter oder spezifischer aus, klären Unschärfe und vieles mehr. Also:

Ist Relevanz (Bedeutung) als bisheriges Manko und künftiger Schlüssel bei der Ermittlung natürlicher und maschineller Kognition anzuerkennen und anwendbar?
Wenn das schon so lange bekannt ist, warum nahm man sich nicht genau der Frage an?
Worin bestehen demnach die Hemmnisse, was müssen wir dazu klären, was fehlt uns noch?
Mit welchen Methoden sind die Erkenntnisse für die menschliche und die maschinelle Entwicklung umsetzbar? Oder wie und wo sind sie bereits integriert (Nash/Regulierende Dynamik, Genetische Algorithmen)?
Kann jemand auf Philosophen/Wissenschaftler und deren Werke verweisen, die in diesem Zusammenhang auskünftig oder hinweislich sind?
Ist das Thema überhaupt interessant und für wen? Muss ich dazu etwas an der Vortragsweise ändern? Ist das alles zu hoch oder zu flach?
Weitere Fragen?

Nicht alles Intelligente muss sein wie wir

Es geht nicht darum menschenähnliche Funktionalität zu entwickeln sondern um intelligente Datenverarbeitung. Daraus werden wir die intelligenten Maschinen entwickeln, die sich dann menschenähnlich verhalten, in erster Linie aber, weil sie durch uns dann besser bedienbar sind. Das wird (zunächst) eher ein künstlicher Aufsatz sein und nicht Ergebnis maschineller Entwicklung.

Die intelligenten Datenverarbeitungseinheiten, die denen vorausgehen gleichen (theoretisch) Menschen, die in definierter Umgebung unter sehr spezifischen und einfachen Anforderungsmustern aufwachsen und sich daran entwickeln statt an ihrem naturellen/kultivierten/sozialen Umfeld. Diese wie auch die Computerprogramme der anbrechenden Zukunft sind nur in der Lage, sich in ihrem begrenzten Feld zu bewegen. Man kann ihnen keinen Roman in die Hand drücken und fragen, was sie davon halten.

Ich glaube, dass Alan Turing nicht ganz unbeteiligt daran ist, dass nicht anerkannt wird, wie intelligent unsere Maschinen bereits sind. Der Turing-Test legt vor, dass die Maschine mit ihren Antworten von Menschen nicht treffsicher zu unterscheiden ist, dann erst sei Künstliche Intelligenz gegeben. Das offenbart, wie wenig man zu der Zeit davon verstand. Intelligenz ist bereits in den kleinsten anpassungsfähigen Elementen gegeben. Das über die Zeit entwickelte Zusammenspiel blieb übrig, weil es in der Umgebung erfolgreich war. Das Gehirn wendet die Systematik von Analyse (Musterentsprechung) und Synthese (Mustervervollständigung) nur an und der Verstand abstrahiert und selektiert damit Zusammenhänge die signifikant waren, Kognition.

Die Regeln sind komprimierte Daten, so kann der Verstand beispielsweise beliebige Zahlen addieren ohne eine riesige Tabelle mitzuführen, indem er wenige Regeln auf Ziffernreihen anwendet. Während ein Tier die den Daten zugrundeliegenden Regeln erst prägen muss, können Menschen sie einander kurz und prägnant mitteilen. Sie den Umgebungsdaten zu entlesen ist bei ihnen genauso aufwändig wie im künstlichen Neuronalen Netz oder im Einsatz Genetischer Algolrithmen. Es erfordert Trainingszeit.

Herausgeschält aus dem Wust unklarer Zusammenhänge wie sie auch ohne Verstand gespeichert sind, erfüllen die Regeln die Kriterien von Fakten. Auf denen kann man isoliert aufbauen, sie abstrahieren und kombinieren, sie hinterfragen, prüfen und beweisen. Das ist mit dem Datenmatsch nicht so leicht möglich, der in unserem tierischen Hirn, sowie in unseren künstlichen neuronalen und genetischen Strukturen gegeben ist. Da ist Fuzzy Logik noch näher dran aber eben auf die Zusammenhänge reduziert, die definiert sind.

Erkenntnis kann nur aus Kenntnis hervorgehen, weshalb die intelligente Datenverarbeitung der nächsten Zukunft Ergebnisse aus einfachen Stellungen trainieren wird, die man ihr so klar und eindeutig wie möglich vorgibt. Da wird mit den mathematischen begonnen. Das ist für die Datenverarbeitung genau richtig.

Was menschlich ist, erfahren Menschen besser, denn sie wachsen unter Menschen auf und entwickeln sich an ihnen, sind selber welche. Dass der einzige intelligente Mechanismus auf diesem Planeten (den wir kennen) der Mensch ist, heißt nicht, dass alles Intelligente sein muss wie er. Das war ein falscher Umkehrschluss.

Orientierung

Entwicklung ist ein Prozess, der auf dem Bestehenden aufbaut. Das hat grundlegende Bedeutung, wenn man die Funktionsweise von Menschen untersucht. Es kommen stets und nur Mechanismen zum Einsatz, die bereits vorliegen um auf eine neu erkannte Anforderung adaptiert zu werden. Was besteht, kann auch einer Beobachtung entlehnt sein. Das wird sich beim Lernen niederschlagen, der kognitiven Entwicklung. Solche Form ist vergleichbar mit dem Einbringen genetischen Codes durch ein Virus. Das hat es auch in der menschlichen Entwicklung gegeben. Das Bestehende, auf dem aufgebaut und das abstrahiert wurde, war dann der assimilierte Code des Virus”. Ob er erfolgreich zur Anwendung kommen konnte, stellte die Selektion fest. Beim Lernen hingegen greift man auf Erlebtes zurück, das bestand zum Zeitpunkt der Erfahrung (z.B. der Eltern) und konnte im Gehirn nur an die bestehende Kenntnisbasis anknüpfen und nur anwenden, was dort bereits vorlag.

Bezieht man diese Tatsachen ein, kann man im Rückschluss folgern, aus welchen Motivationen und Instrumenten sich menschliches Verhalten zusammensetzt. Es sind überwiegend tierische Gepflogenheiten. Indem das Folgende darauf aufbaut, sind die Mechanismen überall dort omnipräsent, wo es gelang sie nützlich einzusetzen. Schon im Sinne der Ressourcenschonung handelt es sich um dieselben. Je früher die Basis im Wesen entstand umso dominanter wirkt sie im daraus entwickelten — weil grundlegend.

Zurück zum Thema. Orientierung haben die Wesen aus denen wir hervorgingen erlernt, nachdem oder während sie Mobilität entwickelten, sich bewegen konnten. Davor waren sie dem ausgesetzt, was am Ort gegeben war. Die Entscheidung, sich überhaupt fortzubewegen ist ausreichend begründet, wenn es den örtlichen Gegebenheiten zu entweichen gilt. Anderswo sein zu wollen bedarf keiner Orientierung. Sich allerdings dorthin begeben zu können, entfaltet das Potential aufzusuchen, was erstrebenswert ist, Nährstoffquellen z.B. .

Gemessen an dem, was Menschen heute anstreben, war das noch leicht zu erkennen. Sinnesorgane erlaubten es, Umgebungsinformationen aufzunehmen. Das anfänglich profane Nervennetz führte die Eingangsreize direkt zu den Aktoren, die die Bewegung ausführten um zum Ziel zu gelangen. Fische und Reptilien funktionieren noch so, haben sich aber bis heute auch fortentwickelt. Sie verfügen wie wir über ein Zentrales Nervensystem, das die Reize sammelt, bevor die Reaktion ausgelöst wird. Darin werden beispielsweise einfache Berechnungen vorgenommen, die die eigene und die Bewegung des Zielobjekts berücksichtigen um es zu erreichen.

Basis für solche Aktion sind zwei sogenannte Vektoren, die sich an einem Punkt kreuzen, dem projektierten Zielpunkt. Fische und Echsen kreisen bzw. warten bis das Objekt in Greifnähe ist und vollziehen dann identische Bewegungsschemata aus einem Fundus um die Beute zu schlagen. Gewieftere Jäger wie die höheren Säugetiere sind in der Lage, ihr nachzueilen, die Hetzjagd wurde dabei entwickelt. Sie erfordert es, die Bewegung immer neu am komplexen Verhalten des Zielobjekts zu orientieren. Um das zu können, gingen sie durch eine Entwicklungsstufe, in der sie die Technik erlernten, als sie soetwas wie Ratten waren. So wie wir auch.

Während der Wurmfisch der wir mal waren noch jagte wie Mäuse es später fallweise tun, liegt das Potential von Ratten im gemeinsamen Vorgehen, sie jagen aber nicht mehr. Die Stärksten sind die Schnellsten, sie laufen vor, der Rest folgt ihnen. Da in der Horde kein Ziel erkennbar ist sondern allenfalls eine Richtung und eine Distanz am Geruchseindruck, richtet sich jedes Mitglied an denen aus, die es umgeben. Dabei kann ein Orientierungsmechanismus zum Einsatz kommen, der schon als Fisch entstanden ist: Schwarmverhalten. Ob das für unsere Vorfische galt können wir nicht sagen. Von denen, die dafür in Frage kommen, fanden wir jedenfalls nur vereinzelte Fossilien vor, genetischer Rückschluss ist daraus nicht zu ziehen. Ob sie es bereits waren, die schwärmten, wissen wir nicht. Als wir an Land gingen waren wir jedenfalls Einzeljäger, Zielobjekt waren Insekten.

Im Rattenstadium verstärkte sich der Ausbau des Gehirns durch Eiweißaufnahme. Wenn das Maß der Intelligenz nicht mehr von der Zellfunktionalität selbst abhängt sondern im Wesentlichen von der Anzahl, muss spätestens zu diesem Zeitpunkt ein Verknüpfungsmodell entwickelt worden sein, das auf die natürliche Umgebung ebensogut anwendbar war, wie auf die soziale. Orientierung dürfte bei der Erfassung der Umgebungsbedingungen wichtigste wenn nicht *die* Funktionalität gewesen sein.

Die Rattenhorde bewegt sich mehr oder weniger zweidimensional fort. Technisch wird Orientierung an der Position relativ vorgenommen. Im dreidimensionalen Raum für den auch wir gebaut sind, steht etwas vor uns, links oder rechts von uns, über oder unter uns. Was hinter uns ist, war immer schon konkurrierend und ansonsten schlecht wahrnehmbar. Es treibt uns vor sich her, ist eine Bedrohung, Fressfeind oder Mitesser. Verfügt es über kein Potential, ist es belanglos.

Das Verhältnis zu den Positionen über und unter uns ist ambivalent daran ob es sich um Freund oder Feind handelt, er schwächer ist oder stärker. Jedenfalls ist oben die Sonne, die Position also erstrebenswert aber nur unter Widerständen zu erlangen und Gefahren zu halten. Dazu muss man speziell motiviert sein.

Neben uns sind hingegen solche wie wir selbst. Es schwimmen keine einander feindlichen Fische nebeneinander her, auch unter anderen Lebewesen ist solche Konstellation nur gegeben, wenn sie gerade nichts voreinander zu befürchten haben sondern mehr von hinten (Stampede).

Bilden wir eine soziale Horde (Truppe), wünschen wir neben uns, wem wir gewogen sind und dessen Potential uns entspricht. Die rechte Hand trägt uns zu, der linken tragen wir entweder selbst zu oder vernachlässigen sie gegenüber der rechten. Am Rand der Horde kann eine der Positionen vakant sein.

In Gefechtsstellungen nennen wir solche Konstellationen “Formation”, die entsteht dabei nämlich aus den Affinitäten und hält man sie diszipliniert ein, hat die Gruppe einen Kampfvorteil durch biologisch verankerte Orientierung. Sie ist ein Rudel.

Schwarmverhalten ist mathematisch abbildbar und wird in der Sozilogie und der Trendforschung eingesetzt. Es geht dabei um die Präferenz, mit der Distanzen zu den unmittelbaren Nachbarn verkürzt (Anschluss), erhöht (Freiraum) oder beibehalten werden.

In der Gruppendynamik gibt die Alpha-Position Richtung, Tempo und Höhe vor. Wer höher will, muss an ihr vorbei (3-D), wer weiter vor will, muss schneller sein (2-D), wissen, wo es lang geht und über das Vertrauen der Nachfolgenden verfügen sonst steht er bald alleine auf weiter Flur. In der 2-D-Betrachtung ist Alphas rechte Hand Beta. Ansonsten steht er in der Position darunter, vor dem Rest der Gruppe auf selber Höhe, leitet sie an. Es folgen nebeneinander liegende Gamma-Positionen. Die vertrauen Beta mehr als Alpha. Ihr Mangel an Strebsamkeit und Bewusstsein für Harmonie befähigt sie zur Aufgabenbewältigung. Sie sind belastbar, führbar und kooperativ, bilden den Kern und bewerten die Führung am Erleben. Die letzte Position Omega treibt die ganze Gruppe voran. Verliert Alpha seinen Zuspruch, bleiben nur noch Omega der stets bremste und gegen Alpha gerichtet sowie Beta, der stattdessen loyal ist. Gammas werden sich an den Führungswilligen orientieren, sind es selbst nur dann, wenn es die Situation erfordert. Die Positionen wechseln dann, vakante aber relevante werden befüllt (Machtvakuum). Die Positionen sind in der vernetzten Gesellschaft relativ. Alpha der einen Gruppe ist womöglich Omega einer ihr übergeordneten.

Vision, Beute, Partner, Freund, Feind sind ursprüngliche Konstellationselemente der höheren Lebewesen. Die Vision ist die Leitlinie, die Beute das Ziel, der Partner Gehilfe und der Widersacher hinter einem her. In der menschlichen Gesellschaft sind das alle füreinander. Sonst ist da kein Lebewesen mehr, das Positionen relevant einnehmen könnte.
Konfrontation ist die Stellung nach der die Positionen neu geordnet sind. Nach meinem Dafürhalten machen wir genau an diesem Punkt etwas falsch. Wir leben die Konfrontation statt der Ordnung. Das erhöht zwar die Dynamik, macht aber viel(e) kaputt.

Vermutungen/Thesen (sonst ungestützt):
Orientierung ist die Grundlage jeder Konstellation im menschlichen Gehirn, das die Wirklichkeit abbildet.
Die Datenhaltung im menschlichen Gehirn ist fundamental und damit in jeder Weise an den Merkmalen der Orientierung ausgerichtet (über/unter, vor/hinter, links/rechts, daraus durch den Verstand adaptiert vorher/nachher)
Damit ist zu begründen, weshalb uns nur eingeschränkt viele Assoziationen pro Aspekt einfallen.
Diese stehen jeweils in der Rolle einer Richtung mehr oder weniger treffend repräsentativ, werden jedenfalls so präferiert behandelt (Relevanz).
Beispiele: Schulnoten (scharf): 1(A) oben, 2(B) vorne, 3(C) rechts, 4(D) links, 5(E) unten, 6(F) hintenrnFarben: (interpretativ aber komplementär): rot (vorne), blau (unten), gelb (oben), weiß (links), schwarz (rechts), grün (hinten)
Gruppendynamik: alpha (oben), beta (vorne), gamma (links/rechts), omega (hinten).
Gibt es vielleicht noch deltas und epsilons unter den gammas, die bislang nicht so scharf differenziert wurden? Babys/Kinder?

Wofür ist diese Betrachtung nützlich?
In der maschinellen Kognition arbeitet man gerne mit sog. Topic-Maps, die die Wissensbasis abbilden. Hierarchisch gesehen beginnen sie oben bei der Welt und münden in den Werten. Bei der Erforschung geeigneter Analyseverfahren ist die Grundproblematik gegeben, dass der Vergleich aller Konstellationen zu aufwändig ist und gemessen daran zu wenig nützliche Informationen hergibt. Menschliche Kognition differenziert über die relevantesten und zueinander passenden Aspekte besser, d.h. schneller.
Es folgt daraus, dass zur Untersuchung eines Aspekts die zu ihm korrespondierenden unterschiedlich bevorzugt zu behandeln sind. Welche korrespondieren, steht in der Vernetzungsstruktur deren genauer Aufbau uns beim Menschen unbekannt ist. Am grundlegend Hinweislichsten (und am schnellsten beantwortet) ist z.B. die Frage, welchem Symbol ein Aspekt zugeordnet ist. (“Was ist das?”)
Wo ein Aspekt in der 2D-Hierarchie (oben/unten) steht, bezeichnet bereits, was ihn deklariert bzw. spezifiziert. Das ist in jeder hierarchischen Struktur so abgebildet: Wozu gehört etwas und was gehört dazu? Aussagekräftig ist darüber hinaus, wie sich Aspekte derselben Ordnung im Netzwerk stellen, das sind nebenliegende. Will man einen Aspekt einsortieren, gibt es davor (links) liegende und nachfolgende (rechts).
Die zur klassischen Datenverarbeitung kompatible, plan-hierarchische Anordnung ist zum besseren (maschinellen) Verständnis womöglich durch eine dreidimensionale zu ersetzen. Eine Sonderstellung nehmen nämlich die Symbolbezeichnungen ein, die könnte man 3D gesehen vorne anlegen (Definition). Was zur Vollständigkeit der Informationen dann noch fehlt, sind die Relevanzen, die man dann hinter die Struktur stellen kann. Aus ihnen entsteht später ein tierisch neuronales Netz, das über die Symbole zu noch unbekannten Werten und Aspekten findet um Erkenntnisse schnell anzuwenden (Emotionale Kognition). Auch für die Untersuchung sind sie hilfreich, weil identisch hohes oder stetes Vorkommen (Relevanz) auf Regelzugehörigkeit hinweist (Allgemeingültigkeit).

Eine beschleunigte Analyse stellt sich für jeden Aspekt dann bevorzugt die Fragen:
Was ist das? (steht davor)
Wozu gehört es? (Was steht darüber)
Woraus besteht es? (Was steht darunter)
Was ist ihm ähnlich? (steht daneben)
Wo gehört es da ”rein? (links/rechts)
Wie oft kommt das vor? (Was steckt dahinter)
und wendet erst dann weitere Funktionalität an (Ausschluss z.B.) oder geht in die tiefere Betrachtung.

Einsatzbandbreite und Marktrelevanz

Intelligente Systeme werden heute bereits in der Steuerungstechnik, der Mustererkennung, der Informationsverarbeitung und bei Computerspielen eingesetzt. Sie basieren auf Neuronalen Netzen und der so genannten „Fuzzy Logik“. Während im ersten Ansatz versucht wird, die elektronische Funktion des Gehirns nachzubilden, stellt die Fuzzy-Logik bereits Daten in einen eng definierten Zusammenhang. Der ist aber jeweils festgelegt, die Intelligenz steckt nicht in den Daten, sondern in den Vorgaben.

Im Unterschied zum Neuronalen Netz wird mit einem IDRS-System nicht die technische Basis simuliert, sondern die Verarbeitung der Informationen im Gehirn nachvollzogen. Dadurch ist es womöglich nicht zu allen Funktionalitäten des menschlichen Gehirns fähig, die Informationsverarbeitung geschieht aber unter entschieden geringerem Rechenaufwand und unterliegt nicht der bestehenden Einschränkung, dass noch nicht jeder Steuerungseffekt auf dieser technischen Basis erforscht ist.

Die IDRS-Logik unterscheidet sich grundlegend von der Fuzzy-Logik, indem sie alle Informationen miteinander in jeden Zusammenhang bringt, der nur auf die Informationen eingeschränkt ist, die überhaupt in das System gelangen können. Das ist zwar definiert, kann aber jederzeit manuell oder durch das System selbst ausgebaut werden. Stehen die Informationen in einem Zusammenhang, wird er im IDRS-System auch hergestellt.

Die IDRS-Technologie ist potentiell in allen vier Bereichen einsetzbar. Für den Einsatz in der Steuerungstechnik ist allerdings die Tatsache hinderlich, dass sich der Informationsstand fortlaufend ergänzt und sich Datenabfragen daher nach und nach verlangsamen. Diese Eigenheit lässt sich durch den Vorgang künstlichen Vergessens aushebeln, der wenig relevante Bestände eliminiert. Kreativität ist an dieser Stelle ohnedies nicht sehr gefragt.

Die grundlegende Funktionsweise liegt in der Erkennung von Mustern, die nicht vorgegeben, sondern erfahren werden, und dabei auch Änderungen unterworfen sind, wie z.B. Sprach- und Schrifterkennung.

Internet-Suchmaschinen verwenden heute intelligente Systeme, um Datenstände mit angemessener Gewichtung in ihre Suchdaten-Struktur zu überführen. Diese Aufgabe erfüllen sie schlecht und sie sind mit gezielten Störmaßnahmen leicht zu überlisten, weil sie nur eingeschränkt gut differenzieren können (Fuzzy-Logik). Die IDRS-Logik ist in der Lage, Datenbestände unbekannter Struktur in Zusammenhänge zu bringen. Dazu wird von den kleinsten Elementen ausgegangen. Das System ordnet die Bestände ein und kann aus der so entstandenen Logik folgern, welche Themen in erster Linie behandelt werden. Dieselbe Technik ist auch für Spam- und Virenschutz, so wie Übersetzungssysteme wirksam.

In Computerspielen kommen heute Gegenspielfiguren zum Einsatz, die sich – mit Verhaltensmerkmalen ausgestattet – sinn- und wirkungsvoll benehmen. Ihre Vorgehensweise ist aber vom menschlichen Spieler nach einiger Zeit nachvollziehbar, eine Tatsache, die unerwünscht ist. Das KI-System des Gegners kann sich auf den Spieler auch nicht sehr differenziert einstellen. Das IDRS-System wird immer mitlernen. Seine Kreativität wird hingegen dadurch eingeschränkt, dass Computerspiele stark auf Geschwindigkeit optimiert sind, während es selbst mit wachsendem Sachstand immer mehr Zeit benötigt. An dieser Stelle wird die Kreativität im optimalen Zusammenwirken mit Relevanzen bedeutsam, weil damit Aspekte aufeinander Einfluss nehmen, die in einem ähnlichen Sachzusammenhang stehen.

Expertensysteme für einzelne Anforderungen lassen sich auch zu Verbänden benachbarter Sachstände zusammenführen, die in einem einzigen System wirken. Es wird damit intelligenter und kreativer.

In der Grundlage der Datenbasis liegt nicht nur das Potential folgerichtiger Schlüsse und Kreativität. Ein Datenbanksystem, das alle Daten in Beziehung zueinander stellt, ist sehr geeignet für Abfragen auf die Ähnlichkeit von Datenelementen. Während nach dem heutigen Stand wachsende Abfragen nötig wären, um Daten zu ermitteln, die sich in unterschiedlicher Weise ähnlich sind, stellt die IDRS-Datenbank eine solche Funktionalität durch ihre Architektur bereit. Im Unterschied zur bisherigen Vorgehensweise muss dann nicht mehr die Abfrage selbst die Differenzierung enthalten. Das Ergebnis wird wiedergegeben, worin die Unterschiede in den Abfrageergebnissen bestehen.
Je nach Anwendungsfall kann eine IDRS-Technik auch Ressourcen schonender arbeiten, also ein relationales System. Jeder Datenwert kommt im System nämlich nur einmal vor. Die Differenzierungen erfolgen über die Verbindungen, davon gibt es aber dann vielmehr als jetzt.

Das volle Leistungspotential der Technologie ist erst abzuschätzen, wenn sich Verarbeitungsgeschwindigkeit und Speicherplatzbedarf herausgestellt haben.

Marktrelevante Einsatzgebiete

  • Jede Form von Abgleich inhomogener Quelldaten
  • Konsistenthaltung von unkontrolliert veränderlichen Datenbeständen
  • Leit- und Suchsysteme für die Datenauswahl (Suchmaschinen)
  • Rechtschreibprüfungen und Thesauren
  • Mustererkennung
  • Spracherkennungs- und Übersetzungssysteme
  • Datenkompression
  • Industrielle Qualitätssicherung
  • Unterstützungssysteme für Software-Entwicklung
  • Entwicklung optimierter Algorithmen
  • Erkennung von Angriffsschemata in Netzwerken
  • Filtern von Datenübermittlungen auf Relevanz und Datensicherheit
  • Ermittlung wissenschaftlicher Gesetzmäßigkeiten
  • Medizinische Analyse und Diagnose
  • Entwicklung chemischer Stoffe
  • Analyse chaotischer Systeme (Wetter, Börse, Wirtschaft)
  • Entscheidungs-, Optimierungs- und Vorgangsassistenten
  • Verhaltensparameter für Spielgegner in Computerspielen

Warum die Anwendung maschineller Kognition Sinn macht

Die Entwicklungen in den Informationstechnologien haben dazu geführt, dass die Informationsflut mit gestiegenem Datenvolumen Ausmaße angenommen hat, die einerseits mit erhöhtem Aufwand verwaltet werden müssen, und es andererseits immer schlechter gelingt, die gewünschten Informationen aus dem Bestand zu ermitteln.

Es werden daher in der Zukunft Mechanismen zum Einsatz kommen, die das Datenaufkommen so speichern, dass die Informationsinhalte in grundlegender logischer Beziehung miteinander stehen.

Die Datentechnologien der neuesten Generation nähern sich diesen Zielen bereits an. Mit der XML-Verarbeitungsweise ist es gelungen, die Plausibilität von Eingangsdaten an einer übergeordneten Struktur zu manifestieren.

Die KI-Technologien unserer Zeit erlauben dass,

  • Internetsuchmaschinen die Relevanz von Webseiten im Zusammenhang mit Suchanfragen ermitteln
  • Übersetzungssysteme die Verwendung von Begriffen in Kontext festlegen
  • Prozesssteuerungssysteme anhand von Messwerten die optimale Gerätejustierung im laufenden Betrieb vornehmen (Qualitätssicherungssysteme, die Ausschussware aus der Produktion erkennen)
  • Experten- und Entscheidungssysteme im Diagnosesektor der Medizin treffendere Ergebnisse als Menschen liefern

Die Mechanisierung der menschlichen Informationsverarbeitung führt die Menschheit in ein neues Zeitalter. Denn die Verarbeitungsleistung danach entstehender Systeme wird gering geschätzt um den Faktor 20 höher liegen als die eines normalen Menschen.

Gründe

  • Ausschließliche Zielorientierung mit voller Konzentration
  • Zuverlässige Verfügbarkeit der für die Lösungsfindung erforderlichen Daten
  • Instantane Ermittlung von Berechnungsergebnissen
  • Heranziehen ausschließlich relevanter Informationen
  • Potentielle Berücksichtigung jeder relevanten Tatsache
  • Ressourcensparender Betrieb

Damit wird allem voran die technologische Entwicklung in allen Bereichen dynamisiert. Jede Problemstellung, der die Analyse von Erhebungsdaten zu Grunde liegt, wird von solchen Systemen gelöst.

Die Intelligenz liegt in den Daten

IDRS (intelligentes Datenrelationssystem) ist eine Datengrundlage, um die Welt in einer Form abzubilden wie ein menschliches Gehirn. Da jedes menschliche Verständnis der Realität auf dieses Prinzip beschränkt ist, kann das System jeden von Menschen vorstellbaren Sachzusammenhang abbilden.

Die Digitalisierung der Welt findet günstigerweise mit einem solchen Datensystem statt, weil jede maschinelle und menschliche Datenverarbeitung daran möglich ist.

Zur Basis der String-Theorie ist die unterschiedliche Art der Wirkungen auf eine einzige Urkraft zurückzuführen, mit der der Aspekt wirkt und andere auf ihn. Das Schema entspricht dem IDRS in seiner grundsätzlichen Arbeitsweise, weshalb das Modell darin nur über Nutzdaten angelegt wird. Ansonsten würde man die Modellebene doppelt manifestieren, in den Daten und in der Funktionsweise des IDRS. Können Sie Ihr Weltmodell also in Daten fassen (Begriffe und Werte), können Sie es im IDRS auch formulieren.

Kenntnis ist die Basis für Erkenntnis

Kurzinterview (zu IDRS-Technologie)

Was macht Sie dermaßen sicher, dass Sie in der richtigen Richtung arbeiten?
Wir stützen uns intensiv auf die Funktionsweise der Hardwarebasis, aus der Intelligenz bislang hervor geht. Daraus haben wir ein Datensystem rekrutiert, dessen Informationen nur aus einem Geflecht von Zuordnungen bestehen. Bringen wir einen beliebigen Sachstand in diese Struktur, offenbart sich die darin verborgene Logik geradezu visuell, wir können es sehen. Grundlegender Unterschied zu den bisherigen Technologien ist, dass wir nicht einfach darauf hoffen, die verfügbaren Daten würden die Regeln schon irgendwie hergeben, wenn man sie nur gut genug analysiert. Wir gehen vielmehr davon aus, dass Kenntnis die Basis für Erkenntnis ist und dass weder von einem Menschen noch von einer Maschine intelligente Datenverarbeitung zu erwarten ist, wenn die zu Grunde liegenden Informationen dafür nicht ausreichen.

Wir wissen immer noch nicht wirklich, was Intelligenz eigentlich ist
Wir haben im Zuge unserer Ermittlungen ein sehr klares Verständnis davon gewonnen. Intelligenz ist ein Pegel für die Qualität der Datenverarbeitung, welche sich aus den Faktoren Geschwindigkeit, Kapazität, Genauigkeit und Flexibilität zusammensetzt. Der Umstand, dass die Wissenschaft sich schwer tut, Intelligenz zu definieren liegt darin begründet, dass Intelligenz Anwendungssache ist. Ob und wie weit Intelligenz zum Einsatz kam, lässt sich nämlich nicht feststellen.

Aussicht auf Forschungsgelder?
Bestehen kaum, da wir ein ziemlich kleines Privatunternehmen ohne akademischen Bezug sind. Aus der Grundlagentechnologie, die wir entwickeln, geht nicht unmittelbar ein Produkt hervor, dessen Marktrelevanz für jeden erkennbar ist und für das man in der Wirtschaft oder seitens des Staates bereit ist zu investieren.

Und was verstehen Sie unter starker künstlicher Intelligenz?
In erster Linie ist Intelligenz kein plötzliches Auftreten, sondern eine mehrstufige Entwicklung. Das menschliche und das tierische Gehirn verfügen beide über eine logische Struktur, in der die aus der Umgebung erfahrenen Aspekte in die Form eines Weltbilds gebracht werden, dessen Kern die eigene Präsenz ist und der in Beziehung zu allen Aspekten dieser virtualisierten Umgebung steht. Eindrücke werden als Muster erkannt und auf die Erfüllung eines Triebes/Instinkts hin vervollständigt. Das passiert zum Einen auf Basis der Datenverbindungen im Sinne von “es geht daraus hervor” und zum Anderen durch eine so veranlasste Handlung (Eingabe/Verarbeitung/Ausgabe).

Während ein Tier den Impulsen folgt, die aus der Reiz-/Reaktionskette hervor gehen, haben wir den Aspekten des Sachstands mit dem Mittel der Sprache Begriffe und Gattungsbegriffe zugeordnet und legen die sensorisch empfangenen Eindrücke überwiegend in Formulierungen und Modellen ab. Damit haben wir nicht nur einen hohen Kompressionseffekt erzielt, der die Sachzusammenhänge auf die relevanten Zusammenhänge reduziert. Weil jeder Aspekt seinen Gattungsbegriffen zugeordnet ist, applizieren wir eine Erfahrung nicht mehr nur auf den spezifischen Eindruck, sondern verallgemeinern sie auf Regeln, die im Rahmen der Gattungsbegriffe gelten. Diese und jede weitere Stufe der Intelligenz ist also eine direkte Folge des Hervorbringens von Sprache.

Was unseren heute entwickelten Verstand ausmacht, ist zunächst die Fähigkeit, mit uns selbst in Kommunikation zu gehen, das ist der Vorgang des Durchdenkens. Auf diese Weise gewinnen wir Erkenntnisse ohne dass dazu eine korrespondierende Situation vorliegt. Der nächste Schritt war die Entwicklung von Analyse-Modellen, mit denen wir Sachverhalte untersuchen. In der Lage alle Erfahrungen auf das “Begreifen” (wie “Begriff”) zu virtualisieren, gelang uns das auch mit dem eigenen Denkprozess.

Wir wählen heute aus einer Vielzahl unterschiedlicher Ansätze, um den Daten gezielt Informationen zu entlesen. Grundsätzliche Vorgehensweise im Denken ist nach wie vor die Erkennung eines Eingangsmusters und seine Vervollständigung auf einen Zieleindruck hin. Bei der Analyse von Eindrücken (Situationen, Vorstellungen, Visionen, Schilderungen) sind unsere Gefühle der Schlüssel, der uns für jeden dieser Eindrücke einen sehr differenzierten Bewertungseindruck übergibt, der selbst wieder Hinweis auf korrespondierende Erfahrungen ist, die im Gehirn abgelegt sind. Der Schlüssel zu echter maschineller Intelligenz liegt in der Form, wie die Daten angelegt sind, nämlich ausschließlich in Form von Zuordnungen, worin jeder Aspekt nur ein einziges Mal vertreten ist und allen Aspekten im Datenstand zugeordnet ist, die ihn definieren repektive spezifizieren.

Vielleicht hapert es bei mir im Moment auch nur an der Begriffsdefinition.
Die Mechanismen, mit denen wir den Daten heute Erkenntnisse entlocken, wurden uns als intelligent verkauft und sind es auch in Abstufungen, soweit man das tierische Gehirn auch als intelligent einschätzt, was ok ist. Es ist in diesem Methoden aber kein eigendynamisches Entwicklungspotential enthalten. Das klappt erst, wenn die Methode zur intelligenten Analyse von Daten wiederum von einem intelligenten System ermittelt und angewendet wird, so wie beim Menschen. Letztlich könnten wir einen Hund auf die Steuerung von Prozessen trainieren. Er wird aber nicht in der Lage sein, den Vorgang zu abstrahieren, wenn etwas Unerwartetes geschieht.