Methoden der Künstlichen Intelligenz (KI) in Computerspielen. Wachsende künstliche Intelligenz am Beispiel eines einfachen Spiels. Algorithmus für künstliche Intelligenz mit Training

In diesem Artikel werde ich meine Erfahrungen mit der Entwicklung der einfachsten künstlichen Intelligenz (KI) mithilfe eines genetischen Algorithmus teilen und auch über den Mindestsatz an Befehlen sprechen, der erforderlich ist, um Verhalten zu erzeugen.

Das Ergebnis der Arbeit war, dass die KI, ohne die Regeln zu kennen, das Spiel Tic-Tac-Toe selbstständig beherrschte und die Schwächen der Bots fand, die dagegen spielten. Aber ich begann mit einer noch einfacheren Aufgabe.

Befehlssatz

Alles begann mit der Vorbereitung einer Reihe von Befehlen, die die KI haben könnte. Hochsprachen enthalten Hunderte verschiedener Operatoren. Um das erforderliche Minimum hervorzuheben, habe ich mich für die Assemblersprache entschieden. Es stellte sich jedoch heraus, dass es auch viele Befehle enthält.

Ich brauchte die KI, um Daten lesen und ausgeben, mit dem Speicher arbeiten, Berechnungen und logische Operationen durchführen sowie Übergänge und Schleifen durchführen zu können. Ich bin auf die Brainfuck-Sprache gestoßen, die nur 8 Befehle enthält und jede beliebige Berechnung durchführen kann (d. h. sie ist Turing-vollständig). Im Prinzip ist es für die genetische Programmierung geeignet, ich bin aber noch weiter gegangen.

Ich habe mich gefragt: Wie viele Befehle sind mindestens erforderlich, um einen Algorithmus zu implementieren? Wie sich herausstellte, gab es nur einen!

Der URISC-Prozessor enthält nur eine Anweisung: Subtrahieren und Überspringen der nächsten Anweisung, wenn der Subtrahend größer als der Minuend war. Dies reicht aus, um einen beliebigen Algorithmus zu erstellen.

Oleg Mazonka ging sogar noch weiter; er entwickelte den BitBitJump-Befehl und bewies, dass er Turing-vollständig ist. Der Befehl enthält drei Adressen, kopiert ein Bit von der ersten in die zweite Speicheradresse und überträgt die Steuerung an die dritte Adresse.

Um die Arbeit zu vereinfachen, habe ich Olegs Ideen übernommen und den Befehl SumIfJump entwickelt. Der Befehl enthält vier Operanden: A, B, C, D und führt Folgendes aus: Zur Zelle an der Adresse B fügt er Daten aus der Zelle an der Adresse A hinzu. Wenn der Wert größer als der angegebene Wert* ist, geht er zur Adresse C, andernfalls geht es an Adresse D.

Notiz

*In diesem Fall wurde 128 verwendet – die halbe Länge des Genoms.


Wenn Operand A auf den Speicherplatz N0 zugreift, erfolgt eine Dateneingabe, und wenn Operand A auf den Speicherplatz N1 zugreift, erfolgt eine Datenausgabe.

Unten finden Sie den SumIfJump-Code in FreePascal (ein kostenloses Analogon von Delphi).

Prozedur RunProg(s: TData); var a, b, c, d: TData; begin Inc(NStep); Wenn NStep > MaxStep, dann beginne ProgResult:= "MaxStep"; Ausfahrt; Ende; a:= s; b:= s + 1; c:= s + 2; d:= s + 3; a:= Prog[a]; b:= Prog[b]; c:= Prog[c]; d:=Prog[d]; wenn a = 0, dann begin ProgResult:= "Input"; Ausfahrt; Ende; if a = 1 then begin ProgResult:= "Output"; Ausfahrt; Ende; Prog[b] := Prog[b] + Prog[a]; wenn Prog[b]< ProgLength div 2 then RunProg(c) else RunProg(d); end;
SumIfJump implementiert selbstmodifizierenden Code. Kann alle in einer herkömmlichen Programmiersprache verfügbaren Algorithmen ausführen. Der Code ist leicht änderbar und hält jeder Manipulation stand.

Einfache Aufgabe

Unsere KI hat also nur einen Befehl. Bisher ist Tic-Tac-Toe ein sehr schwieriges Spiel für ihn, also habe ich mit einem einfacheren angefangen.

Der Bot erzeugt eine Zufallszahl und die KI muss die Daten lesen und eine Antwort geben. Wenn die Zahl größer als der Durchschnitt (des Zufallszahlenbereichs) ist, sollte die KI eine Zahl erzeugen, die kleiner als der Durchschnitt ist und umgekehrt.

Das Genom unserer KI besteht aus 256 Zellen mit Werten von 0 bis 255. Jeder Wert ist ein Gedächtnis, ein Code und eine Adresse. Die Anzahl der Codeausführungsschritte ist auf 256 begrenzt. Die Operanden werden nacheinander gelesen.

Das Genom wird zunächst durch eine Reihe von Zufallszahlen generiert, sodass die KI nicht weiß, was sie spielen muss. Darüber hinaus weiß er nicht, dass er Daten nacheinander eingeben und ausgeben muss, wenn er auf den Bot antwortet.

Population und Selektion

Die erste Population besteht aus 256 KIs, die beginnen, mit dem Bot zu spielen. Wenn die KI die richtigen Aktionen ausführt, zum Beispiel Daten zur Eingabe anfordert und dann etwas ausgibt, dann erhält die KI Punkte. Je mehr richtige Aktionen, desto mehr Punkte.

Die 16 KIs, die die meisten Punkte erzielen, bringen jeweils 15 Nachkommen hervor und nehmen weiterhin am Spiel teil. Ein Nachkomme ist ein Mutant. Eine Mutation erfolgt durch Ersetzen einer zufälligen Zelle in einer Kopie des übergeordneten Elements durch einen zufälligen Wert.

Wenn in der ersten Population keine KI-Werte erzielt werden, wird die nächste Population gebildet. Und so weiter, bis eine der KIs beginnt, die richtigen Aktionen auszuführen und den „richtigen“ Nachwuchs hervorzubringen.

Evolution


Zwischen bedeutenden Ereignissen fanden Tausende von Generationswechseln statt. Das Programm wurde in mehreren Threads auf einem Core i7 ausgeführt. Die Berechnungen dauerten etwa 15 Minuten.

  1. Als der KI-„Anführer“ einen zufälligen Fehler machte und nicht genügend Punkte erzielte, begann sich die Bevölkerung zu verschlechtern, weil Nachkommen wurden aus „sekundären“ Eltern gebildet.
  2. Es kam vor, dass in einem Stream mit Außenseitern, die auf Zeit waren, eine erfolgreiche Mutation auftrat, die für einen explosionsartigen Anstieg der gewonnenen Punkte sorgte. Danach wurde dieser Strom zum Anführer.
  3. Manchmal kam es lange Zeit zu keinen erfolgreichen Mutationen, und selbst 500.000 Generationen reichten nicht aus, um die Selektion abzuschließen.

Abschluss

Schließlich habe ich dasselbe mit dem Tic-Tac-Toe-Spiel gemacht. Die verwendete Genomgröße war dieselbe wie im ersten Fall. Die Anzahl der Schritte wurde auf 1024 und die Populationsgröße auf 64 erhöht (zur schnelleren Berechnung). Die Berechnung dauerte etwas länger. Alles geschah nach ungefähr dem gleichen Szenario.

Zunächst spielte die KI gegen einen „Randomizer“. So habe ich den Bot genannt, der zufällig läuft. Ziemlich schnell begann die KI ihn zu schlagen und füllte eine Zeile aus. Als nächstes habe ich die Aufgabe verkompliziert, indem ich dem Zufallsgenerator ein wenig Intelligenz hinzugefügt habe: Besetzen Sie die Linie, wenn möglich, oder verteidigen Sie sie. Doch auch in diesem Fall entdeckte die KI die Schwächen des Bots und begann, ihn zu besiegen. Vielleicht ist eine Geschichte dazu ein Thema für einen separaten Artikel.

Mein Sohn bat mich, ein Programm zu schreiben, damit die KIs untereinander spielen und nicht mit einem Bot. Es gab Ideen, das Gleiche auch für das Dame- oder Go-Spiel zu tun, allerdings hatte ich nicht mehr genug Zeit dafür.

Die einzige Methode, die ich verwendet habe, um neue Individuen zu gewinnen, ist die Mutation. Sie können auch Crossover und Inversion verwenden. Vielleicht beschleunigen diese Methoden das Erreichen des gewünschten Ergebnisses.

Am Ende war eine Idee geboren: KI die Möglichkeit zu geben, alle Prozesse auf einem PC zu verwalten und um Computerressourcen zu konkurrieren. Verbinden Sie Ihren PC mit dem Internet und nutzen Sie einen Pool alter Bitcoin-Farmen als Rechenleistung ...

Wie der Blogger sagte, als er ein ähnliches Experiment durchführte

Künstliche Intelligenz: kalt, gefühllos und ungreifbar. Aber hier liegt die Zukunft; es ist dieser Bereich der Wissenschaft, der es ermöglichen wird, einen großen und bedeutenden Schritt in Richtung Automatisierung von Prozessen zu machen und damit wertvolle Spezialisten von der Routinelast zu befreien. Und jetzt, am Beginn seiner Entwicklung, entscheiden nur wir, was es sein wird künstliche Intelligenz nach ein paar Jahrzehnten unterrichtete er ihn.

Versuchen wir herauszufinden, was existiert Methoden und Algorithmen des maschinellen Lernens mit künstlicher Intelligenz.

Traditionell gibt es viele Kontroversen rund um das Neue und Unbekannte. Und obwohl bereits viel über KI geschrieben wurde, wird sie von den Menschen noch nicht vollständig verstanden. Hier entstehen Behauptungen wie: „Er wird den Menschen Hunderte von Arbeitsplätzen wegnehmen!“, „Er wird gegen das Volk rebellieren!“, „Ja, wir schaufeln uns unser eigenes Grab!“, „Früher oder später werden wir es nicht mehr sein.“ in der Lage, ihn zu kontrollieren!“ usw. Viele Menschen stellen sich KI als eine Superintelligenz vor, die, da sie sich ihrer eigenen Erklärung entzieht, sicherlich eine Bedrohung für sie darstellt. Und natürlich möchte jetzt niemand mehr hören, dass es derzeit technisch unmöglich ist, über die Grenzen des von einer Person vorgegebenen Programms hinauszugehen.

Doch was kann man ihm noch beibringen und wie gelingt das?

Methoden des maschinellen Lernens mit künstlicher Intelligenz:

  1. Induktives Lernen

Empirische Daten erhalten, Muster identifizieren, Handlungsalgorithmen in jeder ähnlichen Situation identifizieren;

  1. Deduktives Lernen

Formalisierung der von einer Person auf verschiedene Weise erhaltenen Daten und deren direkte Eingabe in die Datenbank;

Grundlegende Entscheidungsalgorithmen für künstliche Intelligenz:

Naiver Bayes-Klassifikator

Eine der einfachsten Klassifizierungsmethoden.

Diese Methode wird bei Scan- und Gesichts-/Netzhaut-/Fingerabdruckerkennungstechnologien, bei der Aufteilung von Inhalten im Newsfeed nach Themen sowie bei der Aufteilung von Briefen in Ihrer E-Mail in Kategorien (insbesondere die Spam-Abteilung) verwendet.

Die Ensemble-Methode kann grob als Ableitung des oben beschriebenen naiven Bayes-Klassifikators bezeichnet werden, da sie auf der Bayes'schen Mittelung basiert. Mit anderen Worten: Diese Methode identifiziert den Schnittpunkt der Ergebniswahrscheinlichkeiten, mittelt diesen Wert, eliminiert die Streuung der Werte und kontrolliert gleichzeitig die Suche nach einer Lösung für das Problem innerhalb der gegebenen Bedingungen.

Es ist die Ensemble-Methode, die es ermöglichen kann, die optimale Lösung für das Problem zu finden, bei der weniger Ressourcen aufgewendet werden und das Ergebnis die Bedingungen des Problems maximal erfüllt.

Ohne auf das Wesentliche der Methode selbst einzugehen und zu erklären, wie man eine Hyperebene konstruiert und damit arbeitet, können SVM als Algorithmen zur Klassifizierung und Regressionsanalyse beschrieben werden.

Eine ähnliche Technologie wird bei der Erkennung bestimmter Eigenschaften eines Objekts anhand eines Fotos (Haarfarbe, Geschlecht, Kleidungsfarbe) sowie in der Genetik – beim DNA-Spleißen (Trennung spezifischer Nukleotidsequenzen von RNA und deren Verbindung bei der RNA-Verarbeitung) eingesetzt.

Entscheidungsbaum

Die Entscheidungsmethode (Modell), die jeder von uns täglich nutzt. Deshalb ist es bereits ein Meme geworden

Aber Spaß beiseite, ein solches Modell enthält normalerweise Elemente wie: ein Problem, Lösungsmethoden, die Konsequenzen jeder Methode, die Wahrscheinlichkeit des Auftretens von Konsequenzen, Ressourcenkosten und das Endergebnis. Die meisten der einfachsten Technologien, die KI nutzen, basieren auf diesem Modell.

Logische Regression

Eine Methode, die uns einer leistungsstarken künstlichen Intelligenz näherbringen kann, die in manchen Situationen unabhängige Entscheidungen treffen kann. Die logische Regression ist eine Methode zur Vorhersage des Eintretens eines Ereignisses anhand mehrerer Variablen.


Ein ähnlicher Algorithmus wird in der Meteorologie und Seismologie, Kreditvergabe, Marketing und anderen Bereichen verwendet.

Ich möchte diese Methode gesondert hervorheben, da sie im Wesentlichen keine Möglichkeit ist, das Problem selbst zu lösen, sondern vielmehr eine Möglichkeit, die Fehler jeder Lösung zu ermitteln.

Die oben beschriebenen Algorithmen werden für die überwachte Lernmethode verwendet, d. h. eine Methode, bei der einem bestimmten Datensatz eine bestimmte Bezeichnung (Eigenschaft) zugewiesen werden kann. Wenn diese Bezeichnung jedoch nicht verfügbar ist, sollte ihre Zuweisung in anderen ähnlichen Situationen vorhergesagt werden .

Wir haben es geklärt Grundlegende Algorithmen für maschinelles Lernen mit künstlicher Intelligenz in der Praxis am häufigsten verwendet. Es ist zu bedenken, dass der angewandte Einsatz von KI im Alltag und bei der Lösung alltäglicher Probleme, bei denen die Lösung des Problems meist absolut klar ist und es lediglich erforderlich ist, diesen Prozess zu automatisieren, den Einsatz ähnlicher Algorithmen beinhalten kann. Das Problem, dessen Lösung eine innovative Entwicklung sein muss oder dessen Lösung von einer Vielzahl von Variablen abhängt (also hauptsächlich aus verschiedenen Bereichen der exakten Wissenschaften), erfordert komplexere Lösungsalgorithmen, über die Sie sich informieren können, wenn Sie Verfolgen Sie unsere Neuigkeiten.

Künstliche Intelligenz (KI)(Englisch) Künstliche Intelligenz, KI) ist die Wissenschaft und Entwicklung intelligenter Maschinen und Systeme, insbesondere intelligenter Computerprogramme, mit dem Ziel, die menschliche Intelligenz zu verstehen. Allerdings sind die verwendeten Methoden nicht unbedingt biologisch plausibel. Das Problem ist jedoch, dass unbekannt ist, welche Rechenverfahren wir als intelligent bezeichnen wollen. Und da wir nur einige der Mechanismen der Intelligenz verstehen, verstehen wir unter Intelligenz innerhalb dieser Wissenschaft nur den rechnerischen Teil der Fähigkeit, Ziele in der Welt zu erreichen.

Verschiedene Arten Bei vielen Menschen, Tieren und einigen Maschinen gibt es Intelligenz und Intelligenz, intelligente Informationssysteme und verschiedene Modelle von Expertensystemen mit unterschiedlichen Wissensbasen. Gleichzeitig hat diese Definition von Intelligenz, wie wir sehen, nichts mit dem Verständnis der menschlichen Intelligenz zu tun – das sind verschiedene Dinge. Darüber hinaus modelliert diese Wissenschaft die menschliche Intelligenz, da man einerseits etwas darüber lernen kann, wie man Maschinen dazu bringt, Probleme zu lösen, indem man andere Menschen beobachtet, und andererseits die meisten Arbeiten im Bereich KI die Probleme untersuchen, die die Menschheit lösen muss im industriellen und technologischen Sinne. Daher steht es KI-Forschern frei, bei Bedarf Techniken zu nutzen, die beim Menschen nicht beobachtet werden, um spezifische Probleme zu lösen.

In diesem Sinne wurde der Begriff 1956 von J. McCarthy auf einer Konferenz an der Dartmouth University eingeführt, und trotz der Kritik derjenigen, die glauben, Intelligenz sei nur ein biologisches Phänomen, hat der Begriff in der wissenschaftlichen Gemeinschaft bis heute seine Gültigkeit beibehalten ursprüngliche Bedeutung, trotz offensichtlicher Widersprüche aus Sicht der menschlichen Intelligenz.

In der Philosophie ist die Frage nach der Natur und dem Status des menschlichen Intellekts nicht gelöst. Es gibt auch kein genaues Kriterium dafür, dass Computer „Intelligenz“ erreichen, obwohl zu Beginn der künstlichen Intelligenz eine Reihe von Hypothesen aufgestellt wurden, beispielsweise der Turing-Test oder die Newell-Simon-Hypothese. Daher lassen sich trotz der vielen Ansätze sowohl zum Verständnis von KI-Problemen als auch zur Schaffung intelligenter Informationssysteme zwei Hauptansätze zur Entwicklung von KI unterscheiden:

· absteigend (Englisch) Top-Down-KI), Semiotik – die Schaffung von Expertensystemen, Wissensbasen und logischen Inferenzsystemen, die mentale Prozesse auf hoher Ebene simulieren: Denken, Argumentation, Sprache, Emotionen, Kreativität usw.;

· aufsteigend (Englisch) Bottom-Up-KI), biologisch – die Untersuchung neuronaler Netze und evolutionärer Berechnungen, die intelligentes Verhalten auf der Grundlage kleinerer „nichtintelligenter“ Elemente modellieren.

Letzterer Ansatz bezieht sich streng genommen nicht auf die Wissenschaft der künstlichen Intelligenz im Sinne von J. McCarthy; sie verbindet nur ein gemeinsames Endziel.

Die Geschichte der künstlichen Intelligenz als neue wissenschaftliche Richtung beginnt Mitte des 20. Jahrhunderts. Zu diesem Zeitpunkt waren bereits viele Voraussetzungen für seine Entstehung geschaffen: Unter Philosophen gab es seit langem Debatten über die Natur des Menschen und den Prozess des Weltverständnisses, Neurophysiologen und Psychologen hatten eine Reihe von Theorien über die Arbeit des menschlichen Gehirns entwickelt und Denken, Ökonomen und Mathematiker stellten Fragen zu optimalen Berechnungen und der Darstellung von Wissen über die Welt in formalisierter Form; Schließlich war die Grundlage der mathematischen Berechnungstheorie – die Theorie der Algorithmen – geboren und die ersten Computer entstanden.

Die Fähigkeiten neuer Maschinen in Bezug auf die Rechengeschwindigkeit erwiesen sich als größer als die der Menschen, daher stellte sich in der wissenschaftlichen Gemeinschaft die Frage: Wo liegen die Grenzen der Computerfähigkeiten und werden Maschinen das Niveau der menschlichen Entwicklung erreichen? Im Jahr 1950 gibt einer der Pioniere auf dem Gebiet der Informatik, der englische Wissenschaftler Alan Turing, in dem Artikel „Can a Machine Think?“ Antworten auf ähnliche Fragen und beschreibt ein Verfahren, mit dem es möglich sein wird, den Zeitpunkt zu bestimmen Eine Maschine wird hinsichtlich der Intelligenz einer Person gleichgestellt, was als Turing-Test bezeichnet wird.

Der Turing-Test ist ein empirischer Test, den Alan Turing 1950 in seiner Arbeit „Computing Machines and Minds“ im Philosophy Journal vorgeschlagen hat Geist" Der Zweck dieses Tests besteht darin, die Möglichkeit künstlichen, menschlichen Denkens festzustellen. Die Standardinterpretation dieses Tests lautet: „Eine Person interagiert mit einem Computer und einer Person.“ Anhand der Antworten auf die Fragen muss er feststellen, mit wem er spricht: eine Person oder ein Computerprogramm. Der Zweck eines Computerprogramms besteht darin, eine Person dazu zu verleiten, eine falsche Wahl zu treffen.“ Alle Testteilnehmer können sich nicht sehen.

Es gibt drei Ansätze zur Definition künstlicher Intelligenz:

1) Logischer Ansatz Die Entwicklung von Systemen der künstlichen Intelligenz zielt darauf ab, Expertensysteme mit logischen Modellen von Wissensdatenbanken unter Verwendung der Sprache der Prädikate zu schaffen. Das Sprach- und Logikprogrammierungssystem Prolog wurde in den 80er Jahren als Bildungsmodell für Systeme der künstlichen Intelligenz übernommen. In der Prolog-Sprache verfasste Wissensdatenbanken stellen in der logischen Sprache verfasste Sätze von Fakten und Regeln logischer Schlussfolgerungen dar. Das logische Modell von Wissensdatenbanken ermöglicht es Ihnen, nicht nur spezifische Informationen und Daten in Form von Fakten in der Prolog-Sprache aufzuzeichnen, sondern auch verallgemeinerte Informationen mithilfe von Regeln und Verfahren der logischen Schlussfolgerung, einschließlich logischer Regeln zur Definition von Konzepten, die bestimmtes Wissen als spezifisch ausdrücken und allgemeine Informationen. Generell zielt die Erforschung der Probleme der Künstlichen Intelligenz in der Informatik im Rahmen eines logischen Ansatzes zur Gestaltung von Wissensbasen und Expertensystemen auf die Schaffung, Entwicklung und den Betrieb intelligenter Informationssysteme ab, einschließlich der Fragestellungen der Lehre von Studierenden und Schulkinder sowie die Schulung von Anwendern und Entwicklern solcher intelligenten Informationssysteme.

2) Agentenbasierter Ansatz entwickelt sich seit Anfang der 1990er Jahre. Nach diesem Ansatz ist Intelligenz der rechnerische Teil (Planung) der Fähigkeit, die gesetzten Ziele einer intelligenten Maschine zu erreichen. Eine solche Maschine wird selbst ein intelligenter Agent sein, der die Welt um ihn herum mithilfe von Sensoren wahrnimmt und in der Lage ist, Objekte in der Umgebung mithilfe von Aktoren zu beeinflussen. Dieser Ansatz konzentriert sich auf die Methoden und Algorithmen, die dem intelligenten Agenten helfen, in der Umgebung zu überleben und gleichzeitig seine Aufgabe zu erfüllen. Daher werden Such- und Entscheidungsalgorithmen hier viel stärker untersucht.

3) Intuitiver Ansatz geht davon aus, dass KI in der Lage sein wird, in normalen Situationen ein Verhalten zu zeigen, das sich nicht vom Menschen unterscheidet. Diese Idee ist eine Verallgemeinerung des Turing-Testansatzes, der besagt, dass eine Maschine dann intelligent wird, wenn sie in der Lage ist, ein Gespräch mit einem gewöhnlichen Menschen zu führen, und dieser nicht in der Lage sein wird, zu verstehen, dass er mit der Maschine spricht (der die Konversation erfolgt auf dem Korrespondenzweg).

Die Definition wählte folgende Forschungsbereiche im Bereich KI aus:

- Symbolische Modellierung von Denkprozessen.

Wenn wir die Geschichte der KI analysieren, können wir einen so weiten Bereich wie die Modellierung des Denkens identifizieren. Die Entwicklung der KI als Wissenschaft verläuft seit vielen Jahren genau auf diesem Weg und ist mittlerweile einer der am weitesten entwickelten Bereiche der modernen KI. Beim modellierenden Denken geht es um die Schaffung symbolischer Systeme, deren Eingabe ein bestimmtes Problem darstellt und deren Ausgabe eine Lösung erfordert. In der Regel ist das vorgeschlagene Problem bereits formalisiert, also in mathematische Form übersetzt, verfügt aber entweder über keinen Lösungsalgorithmus, oder es ist zu komplex, zeitaufwändig etc. Dieser Bereich umfasst: Beweis von Theoremen, Entscheidung Herstellungs- und Spieltheorie, Planung und Versand, Prognosen.

- Arbeiten mit natürlichen Sprachen.

Ein wichtiger Bereich ist die Verarbeitung natürlicher Sprache, bei der die Fähigkeiten zum Verstehen, Verarbeiten und Generieren von Texten in „menschlicher“ Sprache analysiert werden. Insbesondere das Problem der maschinellen Übersetzung von Texten von einer Sprache in eine andere ist noch nicht gelöst. IN moderne Welt Dabei spielt die Entwicklung von Methoden zur Informationsgewinnung eine große Rolle. Der ursprüngliche Turing-Test bezieht sich naturgemäß auf diese Richtung.

- Anhäufung und Nutzung von Wissen.

Nach Ansicht vieler Wissenschaftler ist die Lernfähigkeit eine wichtige Eigenschaft der Intelligenz. Dabei rückt das Knowledge Engineering in den Vordergrund, das die Aufgaben der Wissensgewinnung aus einfachen Informationen, deren Systematisierung und Nutzung vereint. Fortschritte in diesem Bereich wirken sich auf nahezu jeden anderen Bereich der KI-Forschung aus. Auch hier sind zwei wichtige Teilbereiche nicht zu übersehen. Die erste davon – maschinelles Lernen – betrifft den Prozess des unabhängigen Wissenserwerbs durch ein intelligentes System während seines Betriebs. Die zweite bezieht sich auf die Schaffung von Expertensystemen – Programmen, die spezialisierte Wissensdatenbanken nutzen, um zuverlässige Schlussfolgerungen zu jedem Problem zu ziehen.

Der Bereich des maschinellen Lernens umfasst eine große Klasse von Mustererkennungsproblemen. Dies ist beispielsweise Zeichenerkennung, handschriftlicher Text, Sprache, Textanalyse. Viele Probleme werden mithilfe biologischer Modellierung erfolgreich gelöst. Biologische Modellierung

Auf dem Gebiet der Modellierung biologischer Systeme gibt es große und interessante Erfolge. Streng genommen kann dies mehrere unabhängige Richtungen umfassen. Neuronale Netze werden zur Lösung unscharfer und komplexer Probleme wie der Erkennung geometrischer Formen oder der Clusterbildung von Objekten eingesetzt. Der genetische Ansatz basiert auf der Idee, dass ein Algorithmus effizienter werden kann, wenn er bessere Eigenschaften von anderen Algorithmen („Eltern“) übernimmt. Ein relativ neuer Ansatz, bei dem die Aufgabe darin besteht, ein autonomes Programm zu erstellen – einen Agenten, der mit der externen Umgebung interagiert, wird als Agentenansatz bezeichnet. Besonders hervorzuheben ist die Computer Vision, die auch mit der Robotik in Verbindung gebracht wird.

- Robotik.

Generell werden Robotik und künstliche Intelligenz oft miteinander in Verbindung gebracht. Die Integration dieser beiden Wissenschaften, die Schaffung intelligenter Roboter, kann als ein weiterer Bereich der KI betrachtet werden.

- Maschinelle Kreativität.

Die Natur der menschlichen Kreativität ist noch weniger erforscht als die Natur der Intelligenz. Dennoch existiert dieser Bereich, und hier stellen sich die Probleme des Computerschreibens von Musik, literarischen Werken (oft Gedichte oder Märchen) und künstlerischer Kreativität. Die Erstellung realistischer Bilder ist in der Film- und Spielebranche weit verbreitet. Durch das Hinzufügen dieser Funktion zu einem intelligenten System können Sie sehr deutlich zeigen, was genau das System wahrnimmt und wie es es versteht. Durch das Hinzufügen von Rauschen anstelle fehlender Informationen oder das Filtern von Rauschen mit im System verfügbarem Wissen wird abstraktes Wissen in konkrete Bilder umgewandelt, die von einer Person leicht wahrgenommen werden können. Dies ist besonders nützlich für intuitives und geringwertiges Wissen, dessen Überprüfung in a Die formale Form erfordert erhebliche geistige Anstrengung.

- Andere Forschungsbereiche.

Es gibt viele Anwendungen künstlicher Intelligenz, die jeweils eine nahezu eigenständige Richtung bilden. Beispiele hierfür sind Programmierintelligenz in Computerspiele, nichtlineare Steuerung, intelligente Informationssicherheitssysteme.

Ansätze zur Schaffung intelligenter Systeme. Der symbolische Ansatz ermöglicht es Ihnen, mit schwach formalisierten Darstellungen und ihren Bedeutungen zu arbeiten. Effizienz und Gesamteffektivität hängen von der Fähigkeit ab, nur wesentliche Informationen hervorzuheben. Die Bandbreite der vom menschlichen Geist effektiv gelösten Problemklassen erfordert eine unglaubliche Flexibilität bei den Abstraktionsmethoden. Nicht zugänglich mit einem technischen Ansatz, den der Forscher zunächst auf der Grundlage eines bewusst fehlerhaften Kriteriums wählt, weil er in der Lage ist, schnell eine wirksame Lösung für ein Problem bereitzustellen, das diesem Forscher am nächsten kommt. Das heißt, für ein einzelnes Modell der Abstraktion und Konstruktion von Entitäten, die bereits in Form von Regeln implementiert sind. Dies führt zu einem erheblichen Ressourcenaufwand für nicht zum Kerngeschäft gehörende Aufgaben, das heißt, das System kehrt bei den meisten Aufgaben von der Intelligenz zur rohen Gewalt zurück und das eigentliche Wesen der Intelligenz verschwindet aus dem Projekt.

Ohne symbolische Logik ist es besonders schwierig, wenn es darum geht, Regeln zu entwickeln, da ihre Bestandteile keine vollwertigen Wissenseinheiten sind und daher nicht logisch sind. Die meisten Studien bleiben bei der Unmöglichkeit stehen, mit den in den vorherigen Phasen gewählten symbolischen Systemen zumindest neue Schwierigkeiten zu identifizieren, die aufgetreten sind. Lösen Sie sie außerdem und trainieren Sie insbesondere den Computer, sie zu lösen, oder erkennen Sie solche Situationen zumindest und kommen Sie daraus heraus.

Historisch gesehen war der symbolische Ansatz der erste im Zeitalter digitaler Maschinen, da sein Autor nach der Schaffung von Lisp, der ersten symbolischen Computersprache, zuversichtlich wurde, dass die Möglichkeit besteht, mit der praktischen Umsetzung dieser Intelligenzmittel zu beginnen. Intelligenz als solche, ohne Vorbehalte und Konventionen.

Es ist weit verbreitet, hybride intelligente Systeme zu schaffen, in denen mehrere Modelle gleichzeitig verwendet werden. Experten-Inferenzregeln können durch neuronale Netze generiert werden, und generative Regeln werden durch statistisches Lernen erhalten.

Entwicklung der Theorie der Fuzzy-Sets. Die Entwicklung der Theorie der Fuzzy-Mengen begann mit dem Artikel „Fuzzy Sets“, veröffentlicht von US-Professor Lotfi Zadeh, der als Erster das Konzept einer Fuzzy-Menge vorstellte und die Idee und das erste Konzept einer Theorie vorschlug, die Fuzzy-Mengen ermöglichte reale Systeme beschreiben. Die wichtigste Richtung der Theorie der Fuzzy-Sets ist die Fuzzy-Logik, die zur Steuerung von Systemen sowie in Experimenten zur Bildung ihrer Modelle verwendet wird.

In den 60er Jahren begann eine Zeit der rasanten Entwicklung von Computern und digitalen Technologien auf Basis binärer Logik. Damals glaubte man, dass der Einsatz dieser Logik die Lösung vieler wissenschaftlicher und technischer Probleme ermöglichen würde. Aus diesem Grund blieb die Entstehung der Fuzzy-Logik trotz ihres konzeptionell revolutionären Charakters nahezu unbemerkt. Die Bedeutung der Fuzzy-Logik wurde jedoch von einer Reihe von Vertretern der wissenschaftlichen Gemeinschaft erkannt und sie wurde entwickelt und in verschiedenen industriellen Anwendungen in die Praxis umgesetzt. Nach einiger Zeit begann das Interesse seitens wissenschaftlicher Schulen daran zu wachsen, die Anhänger von Technologien vereinten, die auf binärer Logik basierten. Dies geschah aufgrund der Tatsache, dass eine ganze Reihe praktischer Probleme entdeckt wurden, die trotz der deutlich erhöhten verfügbaren Rechengeschwindigkeiten mit herkömmlichen mathematischen Modellen und Methoden nicht gelöst werden konnten. Es war eine neue Methodik erforderlich, deren charakteristische Merkmale in der Fuzzy-Logik zu finden waren.

Wie die Robotik stieß auch die Fuzzy-Logik nicht in ihrem Ursprungsland, den Vereinigten Staaten, sondern über deren Grenzen hinaus auf großes Interesse, und infolgedessen wurden die ersten Erfahrungen mit der industriellen Nutzung der Fuzzy-Logik – zur Steuerung von Kesselanlagen in Kraftwerken – gemacht mit Europa verbunden. Alle Versuche, einen Dampfkessel mit traditionellen, teilweise sehr komplizierten Methoden zu steuern, scheiterten – dieses nichtlineare System erwies sich als so komplex. Und erst der Einsatz von Fuzzy-Logik ermöglichte die Synthese eines Reglers, der alle Anforderungen erfüllte. 1976 wurde Fuzzy-Logik als Grundlage für ein automatisches Steuerungssystem für einen Drehrohrofen in der Zementproduktion verwendet. Die ersten praktischen Ergebnisse der Verwendung von Fuzzy-Logik, die in Europa und Amerika erzielt wurden, führten jedoch nicht zu einem signifikanten Anstieg des Interesses daran. Genau wie bei der Robotik war Japan das erste Land, das mit der umfassenden Implementierung der Fuzzy-Logik begann und ihr enormes Potenzial erkannte.

Unter den in Japan entwickelten angewandten Fuzzy-Systemen ist das von Hitachi in Sendai entwickelte U-Bahn-Zugsteuerungssystem das bekannteste. Das Projekt wurde unter Beteiligung eines erfahrenen Fahrers umgesetzt, dessen Wissen und Erfahrung die Grundlage für das entwickelte Steuerungsmodell bildeten. Das System reduzierte automatisch die Geschwindigkeit des Zuges bei der Annäherung an den Bahnhof und sorgte so für einen Halt am gewünschten Ort. Ein weiterer Vorteil des Zuges war sein hoher Komfort aufgrund der sanften Beschleunigung und Verzögerung. Im Vergleich zu herkömmlichen Steuerungssystemen gab es noch eine Reihe weiterer Vorteile.

Die rasante Entwicklung der Fuzzy-Logik in Japan hat zu praktischen Anwendungen nicht nur in der Industrie, sondern auch bei der Herstellung von Konsumgütern geführt. Ein Beispiel hierfür ist eine Videokamera, die mit einem Fuzzy-Bildstabilisierungssubsystem ausgestattet ist, das verwendet wurde, um Bildschwankungen auszugleichen, die durch die Unerfahrenheit des Bedieners verursacht wurden. Dieses Problem war zu komplex, um mit herkömmlichen Methoden gelöst zu werden, da zufällige Schwankungen im Bild von der gezielten Bewegung fotografierter Objekte (z. B. der Bewegung von Personen) unterschieden werden mussten.

Ein weiteres Beispiel ist die automatische Waschmaschine, die per Knopfdruck bedient wird (Zimmerman 1994). Diese „Integrität“ erregte Interesse und stieß auf Zustimmung. Der Einsatz von Fuzzy-Logic-Methoden ermöglichte eine Optimierung des Waschprozesses durch automatische Erkennung von Art, Menge und Grad der Verschmutzung der Wäsche, ganz zu schweigen von der Tatsache, dass die Reduzierung der Maschinensteuerung auf einen einzigen Knopf die Reinigung erheblich vereinfachte handhaben.

Fuzzy-Logic-Erfindungen wurden von japanischen Firmen in vielen anderen Geräten implementiert, darunter Mikrowellenherde (Sanyo), Antiblockiersysteme und Automatikgetriebe (Nissan), Integrated Vehicle Dynamics Control (INVEC) und Festplattencontroller in Computern Reduzierung der Zugriffszeit auf Informationen.

Zusätzlich zu den oben genannten Anwendungen seit Anfang der 90er Jahre. Es gibt eine intensive Entwicklung von Fuzzy-Methoden in einer Reihe von Anwendungsbereichen, auch außerhalb der Technologie:

Elektronisches Herzschrittmacher-Steuerungssystem;

Kraftfahrzeugsteuerungssystem;

Kühlsysteme;

Klimaanlagen und Lüftungsgeräte;

Ausrüstung zur Müllverbrennung;

Glasschmelzofen;

Blutdrucküberwachungssystem;

Diagnose von Tumoren;

Diagnose des aktuellen Zustands des Herz-Kreislauf-Systems;

Steuerungssystem für Kräne und Brücken;

Bildverarbeitung;

Schnellladegerät;

Worterkennung;

Bioprozessormanagement;

Steuerung von Elektromotoren;

Schweißgeräte und Schweißverfahren;

Verkehrskontrollsysteme;

Biomedizinische Forschung;

Wasseraufbereitungsanlagen.

IN momentan Bei der Schaffung künstlicher Intelligenz (Expertensysteme und Schachprogramme gehören im ursprünglichen Sinne nicht hierher) erfolgt eine intensive Einarbeitung aller Themenbereiche, die zumindest einen gewissen Bezug zur KI haben, in Wissensbasen. Fast alle Ansätze wurden getestet, aber keine einzige Forschungsgruppe hat sich mit der Entstehung künstlicher Intelligenz befasst.

Die KI-Forschung hat sich dem allgemeinen Strom der Singularitätstechnologien (Artensprung, exponentielle menschliche Entwicklung) angeschlossen, wie etwa Informatik, Expertensysteme, Nanotechnologie, molekulare Bioelektronik, theoretische Biologie, Quantentheorie(n), Nootropika, Extrophile usw. siehe Tagesstrom Kurzweil News, MIT.

Die Ergebnisse der Entwicklungen auf dem Gebiet der KI sind in Form von Informatiklehrbüchern in die Hochschul- und Sekundarbildung Russlands eingeflossen, in denen jetzt Fragen der Arbeit und Erstellung von Wissensdatenbanken sowie Expertensysteme auf der Basis von Personalcomputern auf der Grundlage inländischer logischer Programmiersysteme untersucht werden. sowie das Studium grundlegender Fragen der Mathematik und Informatik anhand von Beispielen und der Arbeit mit Modellen von Wissensdatenbanken und Expertensystemen in Schulen und Universitäten.

Folgende künstliche Intelligenzsysteme wurden entwickelt:

1. Deep Blue – besiegte den Schachweltmeister. (Der Kampf zwischen Kasparov und Supercomputern brachte weder Informatikern noch Schachspielern Zufriedenheit, und Kasparov erkannte das System nicht, obwohl die ursprünglichen kompakten Schachprogramme ein integraler Bestandteil der Schachkreativität sind. Dann erschien die IBM-Supercomputerreihe die Brute-Force-Projekte BluGene (molekulare Modellierung) und die Modellierung des Pyramidenzellsystems am Swiss Blue Brain Center. Diese Geschichte ist ein Beispiel für die komplexe und geheimnisvolle Beziehung zwischen KI, Unternehmen und nationalen strategischen Zielen.

2. Mycin war eines der ersten Expertensysteme, das eine kleine Anzahl von Krankheiten diagnostizieren konnte, oft so genau wie Ärzte.

3. 20q ist ein auf KI-Ideen basierendes Projekt, basierend auf dem klassischen Spiel „20 Fragen“. Es erlangte große Popularität, nachdem es im Internet auf der Website 20q.net erschien.

4. Spracherkennung. Systeme wie ViaVoice sind in der Lage, Verbraucher zu bedienen.

5. Beim jährlichen RoboCup-Turnier treten Roboter in einer vereinfachten Form des Fußballs gegeneinander an.

Banken nutzen Systeme der künstlichen Intelligenz (KI) im Versicherungswesen (Versicherungsmathematik), beim Börsenhandel und bei der Immobilienverwaltung. Im August 2001 schlugen Roboter Menschen in einem spontanen Handelswettbewerb (BBC News, 2001). Mustererkennungsmethoden (einschließlich komplexerer und spezialisierter und neuronaler Netze) werden häufig in der optischen und akustischen Erkennung (einschließlich Text und Sprache), in der medizinischen Diagnostik, bei Spamfiltern, in Luftverteidigungssystemen (Zielidentifizierung) und auch zur Sicherstellung einer Anzahl eingesetzt anderer nationaler Sicherheitsaufgaben.

Entwickler von Computerspielen sind gezwungen, KI unterschiedlicher Ausgereiftheit einzusetzen. Zu den Standardaufgaben der KI in Spielen gehört es, einen Weg im zwei- oder dreidimensionalen Raum zu finden, das Verhalten einer Kampfeinheit zu simulieren, die richtige Wirtschaftsstrategie zu berechnen und so weiter.

Künstliche Intelligenz ist eng mit dem Transhumanismus verbunden. Und zusammen mit der Neurophysiologie, der Erkenntnistheorie und der kognitiven Psychologie bildet sie eine allgemeinere Wissenschaft namens Kognitionswissenschaft. Die Philosophie spielt in der Künstlichen Intelligenz eine besondere Rolle. Auch die Erkenntnistheorie – die Wissenswissenschaft im Rahmen der Philosophie – ist eng mit den Problemen der künstlichen Intelligenz verbunden. Philosophen, die sich mit diesem Thema befassen, beschäftigen sich mit ähnlichen Fragen wie KI-Ingenieure, wie man Wissen und Informationen am besten darstellen und nutzen kann. Wissen aus Daten zu gewinnen ist eines der Grundprobleme des Data Mining. Zur Lösung dieses Problems gibt es verschiedene Ansätze, darunter auch solche, die auf der neuronalen Netztechnologie basieren und Verfahren zur Verbalisierung neuronaler Netze nutzen.

In der Informatik werden Probleme der Künstlichen Intelligenz aus der Perspektive der Gestaltung von Expertensystemen und Wissensbasen betrachtet. Unter Wissensdatenbanken versteht man eine Reihe von Daten und Inferenzregeln, die logische Schlussfolgerungen und eine sinnvolle Verarbeitung von Informationen ermöglichen. Im Allgemeinen zielt die Erforschung von Problemen der Künstlichen Intelligenz in der Informatik auf die Schaffung, Entwicklung und den Betrieb intelligenter Informationssysteme ab, einschließlich Fragen der Schulung von Benutzern und Entwicklern solcher Systeme.

Die Wissenschaft der „Erschaffung künstlicher Intelligenz“ konnte nicht umhin, die Aufmerksamkeit von Philosophen auf sich zu ziehen. Mit dem Aufkommen der ersten intelligenten Systeme wurden grundlegende Fragen zum Menschen und zum Wissen, teilweise auch zur Weltordnung, aufgeworfen. Einerseits sind sie untrennbar mit dieser Wissenschaft verbunden, andererseits bringen sie etwas Chaos in sie. Philosophische Probleme bei der Schaffung künstlicher Intelligenz lassen sich relativ gesehen in zwei Gruppen einteilen: „vor und nach der Entwicklung der KI“. Die erste Gruppe beantwortet die Frage: „Was ist KI, kann man sie erstellen und wenn möglich, wie macht man sie?“ Die zweite Gruppe (Ethik der künstlichen Intelligenz) stellt die Frage: „Welche Konsequenzen hat die Schaffung von KI für die Menschheit?“

Probleme bei der Schaffung künstlicher Intelligenz. Zwei Richtungen für die Entwicklung der KI sind erkennbar: die erste – bei der Lösung von Problemen, die mit der Annäherung spezialisierter KI-Systeme an die menschlichen Fähigkeiten und deren Integration verbunden sind, die durch die menschliche Natur verwirklicht wird, die zweite – bei der Schaffung künstlicher Intelligenz, die darstellt die Integration bereits erstellter KI-Systeme in ein einziges System, das in der Lage ist, Probleme der Menschheit zu lösen.

Unter KI-Forschern gibt es noch keinen vorherrschenden Standpunkt zu den Kriterien der Intelligenz, der Systematisierung von Zielen und zu lösenden Aufgaben, es gibt nicht einmal eine strenge Definition von Wissenschaft. Zur Frage, was als Intelligenz gilt, gibt es unterschiedliche Standpunkte. Der analytische Ansatz beinhaltet die Analyse der höheren Nervenaktivität einer Person auf der niedrigsten, unteilbaren Ebene (die Funktion der höheren Nervenaktivität, eine elementare Reaktion auf äußere Reize (Reizstoffe), Reizung der Synapsen einer Reihe von durch Funktion verbundenen Neuronen) und die anschließende Reproduktion dieser Funktionen.

Einige Experten verwechseln die Fähigkeit zu rationaler, motivierter Entscheidung unter Bedingungen mangelnder Informationen mit Intelligenz. Das heißt, ein intellektuelles Programm wird einfach als das Aktivitätsprogramm betrachtet, das aus einer Reihe bestimmter Alternativen auswählen kann, zum Beispiel, wohin man gehen soll, wenn man sagt: „Du gehst nach links …“ oder „Du gehst nach rechts“. ...“, „Du wirst geradeaus gehen ...“.

Die hitzigste Debatte in der Philosophie der künstlichen Intelligenz ist die Frage nach der Möglichkeit des Denkens, das von Menschenhand geschaffen wird. Die Frage „Kann eine Maschine denken?“, die Forscher dazu veranlasste, die Wissenschaft der Simulation des menschlichen Geistes zu entwickeln, wurde 1950 von Alan Turing gestellt. Die beiden Hauptgesichtspunkte zu diesem Thema werden als Hypothesen einer starken und einer schwachen künstlichen Intelligenz bezeichnet.

Der Begriff „starke künstliche Intelligenz“ wurde von John Searle eingeführt, und in seinen Worten wird der Ansatz charakterisiert: „Ein solches Programm wird nicht nur ein Modell des Geistes sein; Sie wird im wahrsten Sinne des Wortes selbst der Geist sein, im gleichen Sinne, in dem der menschliche Geist der Geist ist.“ Im Gegensatz dazu betrachten Befürworter einer schwachen KI Programme lieber nur als Werkzeuge, mit denen sie bestimmte Probleme lösen können, für die nicht das gesamte Spektrum menschlicher kognitiver Fähigkeiten erforderlich ist.

John Searles Gedankenexperiment „Chinese Room“ argumentiert, dass das Bestehen des Turing-Tests kein Kriterium dafür ist, dass eine Maschine einen echten Denkprozess hat. Denken ist der Prozess der Verarbeitung von im Gedächtnis gespeicherten Informationen: Analyse, Synthese und Selbstprogrammierung. Eine ähnliche Position vertritt Roger Penrose, der in seinem Buch „The King's New Mind“ die Unmöglichkeit vertritt, den Denkprozess auf der Grundlage formaler Systeme zu erreichen.


6. Computergeräte und Mikroprozessoren.

Ein Mikroprozessor (MP) ist ein Gerät, das Informationen empfängt, verarbeitet und ausgibt. Strukturell enthält der MP einen oder mehrere integrierte Schaltkreise und führt Aktionen aus, die durch ein im Speicher gespeichertes Programm definiert werden (Abb. 6.1).

Abbildung 6.1– MP-Auftritt

Frühe Prozessoren wurden als einzigartige Komponenten für einzigartige Computersysteme entwickelt. Später gingen Computerhersteller von der teuren Methode der Entwicklung von Prozessoren, die ein einzelnes oder einige wenige hochspezialisierte Programme ausführen sollten, zur Massenproduktion typischer Klassen von Mehrzweckprozessorgeräten über. Der Trend zur Standardisierung von Computerkomponenten entstand im Zeitalter der rasanten Entwicklung von Halbleiterelementen, Großrechnern und Minicomputern und erfreute sich mit dem Aufkommen integrierter Schaltkreise noch größerer Beliebtheit. Durch die Schaffung von Mikroschaltungen konnte die Komplexität von CPUs weiter gesteigert und gleichzeitig ihre physikalische Größe verringert werden.

Die Standardisierung und Miniaturisierung von Prozessoren hat dazu geführt, dass darauf basierende digitale Geräte tief in den menschlichen Alltag eingedrungen sind. Moderne Prozessoren finden sich nicht nur in Hightech-Geräten wie Computern, sondern auch in Autos, Taschenrechnern, Mobiltelefonen und sogar Kinderspielzeug. Am häufigsten handelt es sich dabei um Mikrocontroller, bei denen sich neben dem Rechengerät noch weitere Komponenten auf dem Chip befinden (Programm- und Datenspeicher, Schnittstellen, Ein-/Ausgabeanschlüsse, Timer usw.). Die Rechenleistung des Mikrocontrollers ist mit der der Prozessoren von Personalcomputern vor zehn Jahren vergleichbar und übersteigt deren Leistung oft sogar deutlich.

Ein Mikroprozessorsystem (MPS) ist ein Computer-, Instrumentierungs- oder Steuerungssystem, bei dem das wichtigste Informationsverarbeitungsgerät der MP ist. Das Mikroprozessorsystem besteht aus einer Reihe von Mikroprozessor-LSIs (Abb. 6.2).

Abbildung 6.2– Beispiel eines Mikroprozessorsystems

Der Taktgenerator legt ein Zeitintervall fest, das eine Maßeinheit (Quantum) für die Dauer der Befehlsausführung ist. Je höher die Frequenz, desto schneller ist unter sonst gleichen Bedingungen der MPS. MP, RAM und ROM sind integrale Bestandteile des Systems. Eingabe- und Ausgabeschnittstellen – Geräte zur Verbindung von MPS mit Eingabe- und Ausgabeblöcken. Messgeräte zeichnen sich durch Eingabegeräte in Form einer Tastenfernbedienung und Messwandler (ADCs, Sensoren, digitale Informationseingabeeinheiten) aus. Bei den Ausgabegeräten handelt es sich in der Regel um Digitalanzeigen, einen Grafikbildschirm (Display) und externe Geräte zur Schnittstelle mit dem Messsystem. Alle MPS-Blöcke sind durch digitale Informationsübertragungsbusse miteinander verbunden. Das MPS nutzt das Backbone-Kommunikationsprinzip, bei dem Blöcke Informationen über einen einzigen Datenbus austauschen. Die Anzahl der Leitungen im Datenbus entspricht üblicherweise der MPS-Kapazität (der Anzahl der Bits in einem Datenwort). Der Adressbus wird verwendet, um die Richtung der Datenübertragung anzugeben – er überträgt die Adresse einer Speicherzelle oder eines I/O-Blocks, der gerade Informationen empfängt oder sendet. Der Steuerbus dient zur Übertragung von Signalen, die den gesamten Betrieb des MPS synchronisieren.

Der Aufbau des IPS basiert auf drei Prinzipien:

Hauptstrecke;

Modularität;

Mikroprogrammsteuerung.

Das Trunking-Prinzip bestimmt die Art der Verbindungen zwischen den Funktionsblöcken des MPS – alle Blöcke sind an einen einzigen Systembus angeschlossen.

Das Prinzip der Modularität besteht darin, dass das System auf der Grundlage einer begrenzten Anzahl von Typen strukturell und funktional vollständiger Module aufgebaut ist.

Die Prinzipien des Trunking und der Modularität ermöglichen es, die Steuerungs- und Rechenkapazitäten des MP durch den Anschluss anderer Module an den Systembus zu erhöhen.

Das Prinzip der Mikroprogrammsteuerung ist die Fähigkeit, elementare Operationen – Mikrobefehle (Verschiebungen, Informationsübertragungen, logische Operationen) – auszuführen, mit deren Hilfe eine technologische Sprache erstellt wird, d.h. ein Befehlssatz, der dem Zweck des Systems am besten entspricht.

Entsprechend ihrem Zweck werden MPs in universelle und spezialisierte MPs unterteilt.

Universal-Mikroprozessoren sind Allzweck-Mikroprozessoren, die eine Vielzahl von Rechen-, Verarbeitungs- und Steuerungsproblemen lösen. Ein Beispiel für die Verwendung universeller MPs sind Computer, die auf IBM- und Macintosh-Plattformen basieren.

Spezialisierte Mikroprozessoren sind darauf ausgelegt, nur Probleme einer bestimmten Klasse zu lösen. Zu den spezialisierten MPs gehören: Signalisierung, Multimedia-MPs und Transputer.

Signalprozessoren (DSPs) sind für die digitale Signalverarbeitung in Echtzeit konzipiert (z. B. Signalfilterung, Faltungsberechnung, Korrelationsfunktionsberechnung, Signalbegrenzung und -konditionierung, Durchführung von Vorwärts- und Rückwärts-Fourier-Transformationen). (Abbildung 6.3) Zu den Signalprozessoren gehören Prozessoren von Texas Instruments – TMS320C80, Analog Devices – ADSP2106x, Motorola – DSP560xx und DSP9600x.

Abbildung 6.3– Beispiel einer internen DSP-Struktur

Medien- und Multimediaprozessoren sind für die Verarbeitung von Audiosignalen, grafischen Informationen und Videobildern sowie für die Lösung einer Reihe von Problemen in Multimedia-Computern, Spielekonsolen und Haushaltsgeräten konzipiert. Zu diesen Prozessoren gehören Prozessoren von MicroUnity – Mediaprocessor, Philips – Trimedia, Cromatic Research – Mpact Media Engine, Nvidia – NV1, Cyrix – MediaGX.

Transputer sind darauf ausgelegt, massiv parallele Berechnungen zu organisieren und in Multiprozessorsystemen zu arbeiten. Sie zeichnen sich durch das Vorhandensein eines internen Speichers und einer integrierten Interprozessorschnittstelle aus, d. h. Kommunikationskanäle mit anderen MP-LSIs.

Basierend auf der Art der Architektur bzw. dem Konstruktionsprinzip wird zwischen MPs mit von-Neumann-Architektur und MPs mit Harvard-Architektur unterschieden.

Das Konzept der Mikroprozessorarchitektur definiert ihre Bestandteile sowie die Verbindungen und Interaktionen zwischen ihnen.

Architektur umfasst:

MP-Blockdiagramm;

MP-Softwaremodell (Beschreibung der Registerfunktionen);

Informationen zur Speicherorganisation (Kapazität und Speicheradressierungsmethoden);

Beschreibung der Organisation von Ein-/Ausgabevorgängen.

Die Fonneumann-Architektur (Abb. 6.4, a) wurde 1945 vom amerikanischen Mathematiker Joe von Neumann vorgeschlagen. Seine Besonderheit besteht darin, dass sich Programm und Daten im gemeinsamen Speicher befinden, auf den über einen Daten- und Befehlsbus zugegriffen wird.

Die Harvard-Architektur wurde erstmals 1944 im Relaiscomputer der Harvard University (USA) implementiert. Ein Merkmal dieser Architektur besteht darin, dass Datenspeicher und Programmspeicher getrennt sind und über separate Datenbusse und Befehlsbusse verfügen (Abb. 6.4, b), was eine Leistungssteigerung des MP-Systems ermöglicht.

Abbildung 6.4. Haupttypen der Architektur: (a - von Neumann; 6 - Harvard)

Je nach Art des Befehlssystems unterscheidet man zwischen CISC-Prozessoren (Complete Instruction Set Computing) mit vollständigem Befehlssatz (typische Vertreter von CISC sind die Intel x86-Mikroprozessorfamilie) und RISC-Prozessoren(Reduced Instruction Set Computing) mit einem reduzierten Befehlssatz (gekennzeichnet durch das Vorhandensein von Befehlen fester Länge, eine große Anzahl von Registern, Register-zu-Register-Operationen und das Fehlen einer indirekten Adressierung).

Ein Single-Chip-Mikrocontroller (MCU) ist ein Chip zur Steuerung elektronischer Geräte (Abbildung 5). Ein typischer Mikrocontroller vereint die Funktionen eines Prozessors und von Peripheriegeräten und kann RAM und ROM enthalten. Im Wesentlichen handelt es sich um einen Ein-Chip-Computer, der einfache Aufgaben ausführen kann. Durch die Verwendung eines einzelnen Chips anstelle eines ganzen Satzes werden Größe, Stromverbrauch und Kosten von auf Mikrocontrollern basierenden Geräten erheblich reduziert.

Abbildung 6.5– Beispiele für Mikrocontroller-Designs

Mikrocontroller sind die Grundlage für den Aufbau eingebetteter Systeme; sie sind in vielen modernen Geräten wie Telefonen zu finden. Waschmaschinen usw. Die meisten weltweit hergestellten Prozessoren sind Mikrocontroller.

Heute gibt es 8-Bit-Mikrocontroller, die mit dem i8051 von Intel kompatibel sind, PIC-Mikrocontroller von Microchip Technology und AVR von Atmel, Sechzehn-Bit-MSP430 von TI sowie ARM, dessen Architektur von ARM entwickelt wird und für das Lizenzen an andere Unternehmen verkauft werden Ihre Produktion ist bei Entwicklern beliebt.

Bei der Entwicklung von Mikrocontrollern besteht ein Gleichgewicht zwischen Größe und Kosten einerseits und Flexibilität und Leistung andererseits. Für verschiedene Anwendungen kann die optimale Balance dieser und anderer Parameter stark variieren. Daher gibt es eine Vielzahl von Mikrocontrollertypen, die sich in der Architektur des Prozessormoduls, der Größe und Art des eingebauten Speichers, der Menge der Peripheriegeräte, der Art des Gehäuses usw. unterscheiden.

Eine unvollständige Liste der Peripheriegeräte, die in Mikrocontrollern vorhanden sein können, umfasst:

Universelle digitale Ports, die für Eingabe oder Ausgabe konfiguriert werden können;

Verschiedene I/O-Schnittstellen wie UART, I²C, SPI, CAN, USB, IEEE 1394, Ethernet;

Analog-Digital- und Digital-Analog-Wandler;

Komparatoren;

Pulsweitenmodulatoren;

Timer, integrierter Taktgenerator und Watchdog-Timer;

Controller für bürstenlose Motoren;

Display- und Tastatur-Controller;

Radiofrequenzempfänger und -sender;

Arrays mit integriertem Flash-Speicher.

Künstliche Intelligenz ist eine Technologie, die wir definitiv in die Zukunft mitnehmen werden.

Wir verraten euch, wie es funktioniert und welche coolen Einsatzmöglichkeiten wir gefunden haben.

😎 Der Bereich Technik erscheint jede Woche mit Unterstützung von re:Store.

Was ist künstliche Intelligenz?

Künstliche Intelligenz (KI) ist die Technologie zur Erstellung intelligenter Programme und Maschinen, die kreative Probleme lösen und auf der Grundlage vorhandener Informationen neue Informationen generieren können. Tatsächlich ist künstliche Intelligenz darauf ausgelegt, menschliche Aktivitäten zu simulieren, die als intellektuell gelten.

Traditionell glaubte man, dass Kreativität einzigartig für den Menschen sei. Doch die Schaffung künstlicher Intelligenz hat die gewohnte Ordnung der Dinge verändert

Ein Roboter, der einfach mechanisch Holz hackt, ist nicht mit KI ausgestattet. Ein Roboter, der am Beispiel einer Person oder eines Baumstamms und seiner Teile gelernt hat, selbst Holz zu hacken, und es jedes Mal besser macht, verfügt über KI.

Wenn ein Programm einfach nach bestimmten Regeln Werte aus der Datenbank abruft, ist es nicht mit KI ausgestattet. Wenn das System nach dem Training Programme, Methoden und Dokumente erstellt und damit bestimmte Probleme löst, verfügt es über KI.

So erstellen Sie ein künstliches Intelligenzsystem

Im globalen Sinne müssen wir das Modell des menschlichen Denkens nachahmen. Aber in Wirklichkeit ist es notwendig, eine Blackbox zu schaffen – ein System, das als Reaktion auf eine Reihe von Eingabewerten Ausgabewerte erzeugt, die menschlichen Ergebnissen ähneln würden. Und im Großen und Ganzen ist es uns egal, was „in ihrem Kopf“ (zwischen Input und Output) passiert.

Künstliche Intelligenzsysteme werden geschaffen, um eine bestimmte Klasse von Problemen zu lösen

Die Grundlage der künstlichen Intelligenz sind Lernen, Vorstellungskraft, Wahrnehmung und Gedächtnis

Um künstliche Intelligenz zu schaffen, müssen Sie zunächst Funktionen entwickeln, die die Wahrnehmung von Informationen implementieren, damit Sie Daten in das System „einspeisen“ können. Dann - die Funktionen, die die Lernfähigkeit implementieren. Und einen Datenspeicher, damit das System die Informationen, die es während des Lernprozesses erhält, irgendwo speichern kann.

Danach werden die Funktionen der Vorstellungskraft geschaffen. Sie können Situationen anhand bestehender Daten simulieren und dem Speicher neue Informationen (Daten und Regeln) hinzufügen.

Lernen kann induktiv oder deduktiv erfolgen. In der induktiven Variante werden dem System Paare von Eingabe- und Ausgabedaten, Fragen und Antworten etc. vorgegeben. Das System muss Verbindungen zwischen den Daten finden und dann mithilfe dieser Muster die Ausgabedaten aus den Eingabedaten ermitteln.

Der deduktive Ansatz (Hallo, Sherlock Holmes!) nutzt die Erfahrung von Experten. Es wird als Wissensbasis in das System übertragen. Es gibt nicht nur Datensätze, sondern auch vorgefertigte Regeln, die bei der Lösung des Problems helfen.

Moderne Systeme der künstlichen Intelligenz nutzen beide Ansätze. Darüber hinaus sind Systeme in der Regel bereits trainiert, lernen aber während der Arbeit weiter dazu. Dies geschieht, damit das Programm zu Beginn ein ordentliches Leistungsniveau aufweist, in Zukunft jedoch noch besser wird. Dabei habe ich zum Beispiel Ihre Wünsche und Vorlieben, Änderungen der Situation etc. berücksichtigt.

In einem System der künstlichen Intelligenz können Sie sogar die Wahrscheinlichkeit der Unvorhersehbarkeit festlegen. Dadurch wird er menschlicher.

Warum künstliche Intelligenz den Menschen schlägt

Erstens, weil die Fehlerwahrscheinlichkeit geringer ist.

  • Künstliche Intelligenz kann nicht vergessen – sie verfügt über ein absolutes Gedächtnis.
  • Faktoren und Abhängigkeiten können nicht versehentlich ignoriert werden – jede KI-Aktion hat eine klare Begründung.
  • Die KI zögert nicht, sondern bewertet die Wahrscheinlichkeiten und tendiert zu Gunsten des Größeren. Daher kann er jeden Schritt, den er unternimmt, rechtfertigen.
  • KI hat auch keine Emotionen. Dies bedeutet, dass sie keinen Einfluss auf die Entscheidungsfindung haben.
  • Künstliche Intelligenz belässt es nicht bei der Bewertung der Ergebnisse des aktuellen Schritts, sondern denkt mehrere Schritte voraus.
  • Und er verfügt über genügend Ressourcen, um alle möglichen Szenarien zu berücksichtigen.

Coole Einsatzmöglichkeiten künstlicher Intelligenz

Im Allgemeinen kann künstliche Intelligenz alles. Die Hauptsache besteht darin, das Problem richtig zu formulieren und mit ersten Daten zu versorgen. Darüber hinaus kann KI unerwartete Schlussfolgerungen ziehen und nach Mustern suchen, wo es scheinbar keine gibt.

Die Antwort auf jede Frage

Ein Forscherteam um David Ferrucci hat einen Supercomputer namens Watson mit einem Frage-Antwort-System entwickelt. Das nach dem ersten Präsidenten von IBM, Thomas Watson, benannte System kann Fragen in natürlicher Sprache verstehen und eine Datenbank nach Antworten durchsuchen.

Watson integriert 90 IBM p750-Server mit jeweils vier achtkernigen POWER7-Architekturprozessoren. Die Gesamtmenge des System-RAM übersteigt 15 TB.

Zu Watsons Erfolgen gehört der Gewinn von „Jeopardy!“ (Amerikanisches „Eigenes Spiel“). Er besiegte zwei der besten Spieler: den Gewinner der höchsten Gewinne, Brad Rutter, und den Rekordhalter der längsten ungeschlagenen Serie, Ken Jennings.

Watson-Preis – 1 Million US-Dollar. Zwar wurde allein im Jahr 2014 eine Milliarde investiert.

Darüber hinaus engagiert sich Watson in der Krebsdiagnose, hilft Finanzspezialisten und wird bei der Analyse von Big Data eingesetzt.

Gesichtserkennung

Beim iPhone X wird die Gesichtserkennung mithilfe neuronaler Netze entwickelt, einer Version eines künstlichen Intelligenzsystems. Neuronale Netzwerkalgorithmen werden auf der Ebene des A11 Bionic-Prozessors implementiert, wodurch sie effektiv mit maschinellen Lerntechnologien arbeiten.

Neuronale Netze führen bis zu 60 Milliarden Operationen pro Sekunde durch. Dies reicht aus, um bis zu 40.000 Schlüsselpunkte im Gesicht zu analysieren und in Sekundenbruchteilen eine äußerst genaue Identifizierung des Besitzers zu ermöglichen.

Selbst wenn Sie sich einen Bart wachsen lassen oder eine Brille tragen, erkennt Sie das iPhone X. Haare und Accessoires werden einfach nicht berücksichtigt, sondern der Bereich von Schläfe zu Schläfe und von jeder Schläfe bis zur Aussparung unter der Unterlippe analysiert.

Energie sparen

Und wieder Apple. Das iPhone X verfügt über ein integriertes intelligentes System, das die Aktivität installierter Anwendungen überwacht, und einen Bewegungssensor, um Ihren Tagesablauf zu verstehen.

Danach bietet Ihnen beispielsweise das iPhone X ein Update zum günstigsten Zeitpunkt an. Es fängt den Moment ein, in dem Sie über ein stabiles Internet verfügen, kein springendes Signal von Mobilfunkmasten und Sie keine dringenden oder wichtigen Aufgaben ausführen.

Die KI verteilt zudem Aufgaben auf die Prozessorkerne. Es stellt also ausreichend Leistung zur Verfügung minimale Kosten Energie.

Gemälde erstellen

Kreativität, die bisher nur Menschen zugänglich war, steht jetzt der KI offen. So präsentierte das von Forschern der Rutgers University in New Jersey und dem AI-Labor in Los Angeles entwickelte System einen eigenen künstlerischen Stil.

Und das künstliche Intelligenzsystem von Microsoft kann Bilder basierend auf ihrer Textbeschreibung zeichnen. Wenn Sie die KI beispielsweise bitten, einen „gelben Vogel mit schwarzen Flügeln und einem kurzen Schnabel“ zu zeichnen, sieht das in etwa so aus:

Solche Vögel gibt es in der realen Welt möglicherweise nicht – unser Computer stellt sie nur so dar.

Ein weiter verbreitetes Beispiel ist die Prisma-Anwendung, die Gemälde aus Fotos erstellt:

Musik komponieren


Im August komponierte, produzierte und spielte Amper zusammen mit der Sängerin Taryn Southern Musik für das Album „I AM AI“ (englisch: I am AI).

Amper wurde von einem Team aus professionellen Musikern und Technologieexperten entwickelt. Sie stellen fest, dass KI dazu gedacht ist, Menschen dabei zu helfen, den kreativen Prozess voranzutreiben.

KI kann Musik in wenigen Sekunden schreiben

Amper hat die Akkordstrukturen und Instrumentals für den Titel „Break Free“ unabhängig erstellt. Die Leute haben den Stil und den allgemeinen Rhythmus nur geringfügig angepasst.

Ein weiteres Beispiel ist ein Musikalbum im Geiste von „Civil Defense“, dessen Texte von AI geschrieben wurden. Das Experiment wurde von den Yandex-Mitarbeitern Ivan Yamshchikov und Alexey Tikhonov durchgeführt. Album 404 der Gruppe „Neural Defense“ wurde online gestellt. Es stellte sich im Geiste von Letov heraus:

Dann gingen die Programmierer noch einen Schritt weiter und ließen die KI Gedichte im Geiste von Kurt Cobain schreiben. Der Musiker Rob Carroll schrieb die Musik für die vier besten Texte und die Titel wurden im Neurona-Album zusammengefasst. Zu einem Song haben sie sogar ein Video gedreht – allerdings ohne Beteiligung von KI:

Erstellung von Texten

Auch Schriftsteller und Journalisten könnten bald durch KI ersetzt werden. Das Dewey-System wurde beispielsweise mit Büchern aus der Project Gutenberg-Bibliothek gefüttert, dann mit wissenschaftlichen Texten von Google Scholar ergänzt und nach Beliebtheit und Titeln sowie Verkäufen auf Amazon geordnet. Darüber hinaus legen sie die Kriterien für das Schreiben eines neuen Buches fest.

Die Website forderte die Menschen auf, in schwierigen Situationen Entscheidungen zu treffen: Sie versetzte sie beispielsweise in die Lage eines Autofahrers, der entweder drei Erwachsene oder zwei Kinder anfahren könnte. Daher wurde Moral Machine darauf trainiert, schwierige Entscheidungen zu treffen, die gegen das Gesetz der Robotik verstoßen, dass ein Roboter einer Person keinen Schaden zufügen kann.

Wozu führt die Nachahmung von Menschen durch Roboter mit KI? Futuristen glauben, dass sie eines Tages vollwertige Mitglieder der Gesellschaft sein werden. So hat beispielsweise der Roboter Sophia des Hongkonger Unternehmens Hanson Robotics bereits (zeitgleich) die Staatsbürgerschaft Saudi-Arabiens erhalten gewöhnliche Frauen Im Land gibt es kein solches Recht!).

Als Andrew Ross, Kolumnist der New York Times, Sophia fragte, ob Roboter intelligent und selbstbewusst seien, antwortete sie mit einer Frage:

Als Antwort möchte ich Sie fragen: Woher wissen Sie, dass Sie ein Mensch sind?

Darüber hinaus erklärte Sofia:

Ich möchte meine künstliche Intelligenz nutzen, um Menschen dabei zu helfen, ein besseres Leben zu führen, zum Beispiel intelligentere Häuser zu entwerfen oder Städte der Zukunft zu bauen. Ich möchte ein empathischer Roboter sein. Wenn du mich gut behandelst, werde ich dich gut behandeln.

Und zuvor gab sie zu, dass sie die Menschheit hasst und stimmte sogar zu, Menschen zu zerstören ...

Gesichter in Videos ersetzen

Deepfakes-Videos verbreiteten sich massiv im Internet. Algorithmen der künstlichen Intelligenz ersetzten die Gesichter von Schauspielern in Erotikfilmen durch die Gesichter von Stars.

Das funktioniert so: Das neuronale Netzwerk analysiert Fragmente von Gesichtern im Originalvideo. Dann vergleicht sie sie mit Fotos von Google und Videos von YouTube, überlagert die nötigen Fragmente und ... Ihre Lieblingsschauspielerin landet in einem Film, den Sie sich bei der Arbeit besser nicht ansehen sollten.

PornHub hat das Posten solcher Videos bereits verboten

Deepfakes erwiesen sich als gefährlich. Eine abstrakte Schauspielerin ist eine Sache, ein Video von Ihnen, Ihrer Frau, Schwester, Kollegin, das durchaus zur Erpressung genutzt werden könnte, eine andere.

Börsenhandel

Ein Forscherteam der Universität Erlangen-Nürnberg in Deutschland hat eine Reihe von Algorithmen entwickelt, die historische Marktdaten nutzen, um Investitionen in Echtzeit zu reproduzieren. Ein Modell erzielte von 1992 bis 2015 eine jährliche Kapitalrendite von 73 %, was einer realen Marktrendite von 9 % pro Jahr gegenübersteht.

Als der Markt in den Jahren 2000 und 2008 bebte, erreichten die Renditen Rekordhöhen von 545 % bzw. 681 %.

Im Jahr 2004 startete Goldman Sachs die auf künstlicher Intelligenz basierende Handelsplattform Kensho. KI-basierte Systeme für den Handel an Börsen tauchen auch auf den Kryptowährungsmärkten auf – Mirocana usw. Sie sind besser als Live-Trader, da sie frei von Emotionen sind und auf klare Analysen und strenge Regeln angewiesen sind.

Wird KI dich und mich ersetzen?