Metoder för artificiell intelligens (AI) i datorspel. Öka artificiell intelligens med ett enkelt spel som ett exempel Artificiell intelligensalgoritm med träning

I den här artikeln kommer jag att dela med mig av min erfarenhet av att odla den enklaste artificiella intelligensen (AI) med hjälp av en genetisk algoritm, och kommer också att prata om den minsta uppsättning kommandon som krävs för att generera något beteende.

Resultatet av arbetet var att AI:n, utan att känna till reglerna, självständigt behärskade spelet tic-tac-toe och hittade svagheterna hos botarna som spelade mot det. Men jag började med en ännu enklare uppgift.

Kommandouppsättning

Det hela började med att förbereda en uppsättning kommandon som AI skulle kunna ha. Språk på hög nivå innehåller hundratals olika operatörer. För att markera det minimum som krävs bestämde jag mig för att vända mig till Assembly-språket. Det visade sig dock att den också innehåller många kommandon.

Jag behövde AI för att kunna läsa och mata ut data, arbeta med minne, utföra beräkningar och logiska operationer, göra övergångar och loopar. Jag stötte på Brainfuck-språket, som bara innehåller 8 kommandon och kan utföra vilken beräkning som helst (dvs. det är Turing komplett). I princip passar den för genetisk programmering, men jag gick längre.

Jag undrade: vad är det minsta antalet kommandon som behövs för att implementera någon algoritm? Det visade sig att det bara fanns en!

URISC-processorn innehåller bara en instruktion: subtrahera och hoppa över nästa instruktion om subtrahenden var större än minuend. Detta är tillräckligt för att bygga vilken algoritm som helst.

Oleg Mazonka gick ännu längre; han utvecklade kommandot BitBitJump och bevisade att det är Turing komplett. Instruktionen innehåller tre adresser, kopierar en bit från den första till den andra minnesadressen och överför kontrollen till den tredje adressen.

Jag lånade Olegs idéer för att förenkla arbetet och utvecklade kommandot SumIfJump. Kommandot innehåller fyra operander: A, B, C, D och gör följande: till cellen på adress B lägger det till data från cellen på adress A, om värdet är större än det angivna värdet*, går det till adress C, annars går den till adress D.

Notera

*I det här fallet användes 128 - halva genomets längd.


När operand A accessar minnesplats NO, sker datainmatning, och när operand A accessar minnesplats N1 sker utmatning.

Nedan finns SumIfJump-koden i FreePascal (en gratis analog till Delphi).

Procedur RunProg(s: TData); var a, b, c, d: TData; start Inc(NStep); om NStep > MaxStep, börja sedan ProgResult:= "MaxStep"; Utgång; slutet; a:= s; b:= s + 1; c:= s + 2; d:= s + 3; a:= Prog[a]; b:= Prog[b]; c:= Prog[c]; d:=Prog[d]; om a = 0, börja då ProgResult:= "Input"; Utgång; slutet; om a = 1, börja då ProgResult:= "Output"; Utgång; slutet; Prog[b] := Prog[b] + Prog[a]; om Prog[b]< ProgLength div 2 then RunProg(c) else RunProg(d); end;
SumIfJump implementerar självmodifierande kod. Kan exekvera alla algoritmer som är tillgängliga i ett konventionellt programmeringsspråk. Koden är lätt att ändra och tål all manipulation.

Enkel uppgift

Så vår AI har bara ett kommando. Än så länge är tic-tac-toe ett väldigt svårt spel för honom, så jag började med en enklare.

Boten producerar ett slumpmässigt tal, och AI:n måste läsa data och ge ett svar. Om siffran är större än genomsnittet (av intervallet av slumpmässiga siffror), bör AI:n producera ett tal mindre än genomsnittet och vice versa.

Genomet av vår AI består av 256 celler med värden från 0 till 255. Varje värde är ett minne, en kod och en adress. Antalet kodexekveringssteg är begränsat till 256. Operanderna läses en efter en.

Inledningsvis genereras genomet av en uppsättning slumpmässiga tal, så AI:n vet inte vad den behöver för att spela. Dessutom vet han inte att han behöver mata in och mata ut data sekventiellt när han svarar på boten.

Population och urval

Den första populationen består av 256 AI:er som börjar spela med boten. Om AI:n utför de korrekta åtgärderna, till exempel, begärde den data för inmatning och sedan matade ut något, då får AI:n poäng. Ju mer korrekta åtgärder, desto fler poäng.

De 16 AI:er som får flest poäng producerar vardera 15 avkommor och fortsätter att delta i spelet. En ättling är en mutant. Mutation sker genom att en slumpmässig cell i en kopia av föräldern ersätts med ett slumpmässigt värde.

Om ingen AI får poäng i den första populationen bildas nästa population. Och så vidare tills en av AI:erna börjar utföra de rätta åtgärderna och producera "rätt" avkomma.

Evolution


Tusentals generationsskiften ägde rum mellan betydande händelser. Programmet kördes i flera trådar på en Core i7. Beräkningarna tog cirka 15 minuter.

  1. När AI-"ledaren" gjorde ett slumpmässigt misstag och inte fick tillräckligt med poäng, började befolkningen försämras, eftersom avkommor bildades från "sekundära" föräldrar.
  2. Det hände att i en ström med utomstående som markerade tid, inträffade en framgångsrik mutation, vilket gav en explosiv ökning av poäng. Varefter detta flöde blev ledaren.
  3. Ibland inträffade inga framgångsrika mutationer under lång tid, och till och med 500 tusen generationer var inte tillräckligt för att slutföra urvalet.

Slutsats

Slutligen gjorde jag samma sak med tic-tac-toe-spelet. Genomstorleken som användes var densamma som i det första fallet. Antalet steg har utökats till 1024 och befolkningsstorleken till 64 (för snabbare beräkning). Beräkningen tog lite längre tid. Allt skedde enligt ungefär samma scenario.

Till en början spelade AI mot en "randomizer". Det är vad jag kallade boten som går slumpmässigt. Ganska snabbt började AI:n slå honom och fyllde i en rad. Därefter komplicerade jag uppgiften genom att lägga till lite intelligens till randomizern: ockupera linjen om möjligt, eller försvara. Men i det här fallet hittade AI botens svagheter och började slå den. Kanske är en berättelse om detta ett ämne för en separat artikel.

Min son bad mig skriva ett program så att AI:erna skulle spela sinsemellan och inte med en bot. Det fanns idéer om att göra samma sak för spelet dam eller Go, men jag hade inte längre tillräckligt med tid för detta.

Den enda metoden jag har använt för att få nya individer är mutation. Du kan också använda crossover och inversion. Kanske kommer dessa metoder att påskynda det önskade resultatet.

Till slut föddes en idé: att ge AI möjligheten att hantera alla processer på en PC och tävla om datorresurser. Anslut din dator till Internet och använd en pool av gamla Bitcoin-gårdar som datorkraft...

Som bloggaren sa när han genomförde ett liknande experiment

Artificiell intelligens: kallt, okänsligt och immateriellt. Men det är här framtiden ligger; det är detta vetenskapsområde som kommer att göra det möjligt att ta ett stort och betydande steg mot att automatisera processer, och följaktligen ta bort en del av rutinbördan från värdefulla specialister. Och nu, i början av dess utveckling, är det bara vi som bestämmer vad det ska bli artificiell intelligens efter ett par decennier, lära honom.

Låt oss försöka ta reda på vad som finns artificiell intelligens maskininlärningsmetoder och algoritmer.

Traditionellt uppstår en hel del kontroverser kring det nya och okända. Och även om det redan har skrivits mycket om AI så är det inte fullt ut förstådd av folk. Det är här påståenden uppstår som: "Han kommer att ta bort hundratals jobb från människor!", "Han kommer att göra uppror mot folket!", "Ja, vi gräver vår egen grav!", "Förr eller senare kommer vi inte att vara det. kunna kontrollera honom!" och så vidare. Många människor föreställer sig AI som en superintelligens, som, eftersom den trotsar deras egen förklaring, verkligen utgör ett hot mot dem. Och naturligtvis vill ingen höra det nu, utöver gränserna för programmet som föreskrivs av en person, för tillfället är detta tekniskt omöjligt.

Men vad är det fortfarande möjligt att lära honom och hur går det till?

Maskininlärningsmetoder för artificiell intelligens:

  1. Induktivt lärande

Inhämta empirisk data, identifiera mönster, identifiera handlingsalgoritmer i varje liknande situation;

  1. Deduktivt lärande

Formalisering av uppgifter som erhållits av en person på olika sätt och mata in dem direkt i databasen;

Grundläggande beslutsalgoritmer för artificiell intelligens:

Naiv Bayes klassificerare

En av de enklaste klassificeringsmetoderna.

Denna metod används i skanning och teknik för ansiktsigenkänning/näthinna/fingeravtryck, för att dela upp innehåll i nyhetsflödet efter ämne, samt för att dela in brev i din e-post i kategorier (särskilt skräppostavdelningen);

Ensemblemetoden kan mycket grovt kallas en derivata av den ovan beskrivna naiva Bayes-klassificeraren, eftersom den är baserad på Bayesiansk medelvärde. Med andra ord, denna metod identifierar skärningspunkten för utfallssannolikheter, medelvärde detta värde, eliminerar spridningen av värden, samtidigt som den kontrollerar sökandet efter en lösning på problemet inom de givna förhållandena.

Det är ensemblemetoden som kan göra det möjligt att hitta den mycket optimala lösningen på problemet, där mindre resurser kommer att spenderas, och resultatet kommer maximalt att tillfredsställa problemets villkor.

Utan att gå in på själva essensen av själva metoden och förklaringen av hur man konstruerar ett hyperplan och arbetar med det kan SVM beskrivas som algoritmer för klassificering och regressionsanalys.

En liknande teknik används för att känna igen vissa egenskaper hos ett objekt från ett fotografi (hårfärg, kön, klädfärg), såväl som i genetik - i DNA-skarvning (separation av specifika nukleotidsekvenser från RNA och deras anslutning under RNA-bearbetning).

Beslutsträd

Beslutsmetoden (modellen) som används dagligen av var och en av oss. Det är därför det redan har blivit ett meme

Men åsidosatta skämt innehåller en sådan modell vanligtvis sådana element som: ett problem, metoder för lösning, konsekvenserna av varje metod, sannolikheten för att konsekvenser uppstår, resurskostnader och slutresultatet. De flesta av de enklaste teknikerna som använder AI fungerar på basis av denna modell.

Logisk regression

En metod som kan föra oss närmare kraftfull artificiell intelligens, kapabel att fatta självständiga beslut i vissa situationer. Logisk regression är en metod för att förutsäga förekomsten av en händelse givet flera variabler.


En liknande algoritm används inom meteorologi och seismologi, utlåning, marknadsföring och andra områden.

Jag skulle vilja lyfta fram denna metod separat, eftersom det i huvudsak inte är ett sätt att lösa själva problemet - snarare ett sätt att fastställa felen i varje lösning.

Algoritmerna som beskrivs ovan används för den övervakade inlärningsmetoden, det vill säga en där en specifik etikett (egenskap) kan tilldelas en specifik datamängd, men om denna etikett inte är tillgänglig bör dess tilldelning förutsägas i andra liknande situationer .

Vi har löst det grundläggande artificiell intelligens maskininlärningsalgoritmer används oftast i praktiken. Det är värt att tänka på att den tillämpade användningen av AI i vardagen och för att lösa vardagsproblem, där lösningen på problemet oftast är helt tydlig och det bara är nödvändigt att automatisera denna process, kan innebära användning av liknande algoritmer. Problemet, vars lösning måste vara en innovativ utveckling, annars kommer lösningen att bero på ett stort antal variabler (det vill säga främst olika områden inom de exakta vetenskaperna), kräver mer komplexa lösningsalgoritmer, som du kan lära dig om om du följ våra nyheter.

Artificiell intelligens (AI)(Engelsk) Artificiell intelligens (AI)är vetenskap och utveckling av intelligenta maskiner och system, särskilt intelligenta datorprogram, som syftar till att förstå mänsklig intelligens. De metoder som används är dock inte nödvändigtvis biologiskt rimliga. Men problemet är att det är okänt vilka beräkningsprocedurer vi vill kalla intelligenta. Och eftersom vi bara förstår några av intelligensens mekanismer, så förstår vi med intelligens inom denna vetenskap endast den beräkningsmässiga delen av förmågan att uppnå mål i världen.

Olika typer och grader av intelligens finns hos många människor, djur och vissa maskiner, intelligenta informationssystem och olika modeller av expertsystem med olika kunskapsbaser. Samtidigt, som vi ser, är denna definition av intelligens inte relaterad till förståelsen av mänsklig intelligens – det är olika saker. Dessutom modellerar denna vetenskap mänsklig intelligens, eftersom man å ena sidan kan lära sig något om hur man får maskiner att lösa problem genom att observera andra människor, och å andra sidan arbetar de flesta med AI och studerar de problem som mänskligheten behöver lösa i industriell och teknisk mening. Därför är AI-forskare fria att använda tekniker som inte observeras hos människor om det behövs för att lösa specifika problem.

Det är i denna mening som termen introducerades av J. McCarthy 1956 vid en konferens vid Dartmouth University, och fram tills nu, trots kritik från de som tror att intelligens endast är ett biologiskt fenomen, har termen i det vetenskapliga samfundet behållit sin ursprunglig betydelse, trots uppenbara motsägelser ur mänsklig intelligenssynpunkt.

Inom filosofin har frågan om det mänskliga intellektets natur och status inte lösts. Det finns heller inget exakt kriterium för datorer för att uppnå "intelligens", även om i början av artificiell intelligens föreslogs ett antal hypoteser, till exempel Turing-testet eller Newell-Simon-hypotesen. Därför, trots de många tillvägagångssätten för att både förstå AI-problem och skapa intelligenta informationssystem, kan två huvudsakliga tillvägagångssätt för AI-utveckling särskiljas:

· fallande (engelska) Top-Down AI), semiotisk - skapandet av expertsystem, kunskapsbaser och logiska slutledningssystem som simulerar mentala processer på hög nivå: tänkande, resonemang, tal, känslor, kreativitet, etc.;

· stigande Bottom-up AI), biologisk – studiet av neurala nätverk och evolutionära beräkningar som modellerar intelligent beteende baserat på mindre "icke-intelligenta" element.

Det senare tillvägagångssättet relaterar strängt taget inte till vetenskapen om artificiell intelligens i den mening som J. McCarthy gav, de förenas endast av ett gemensamt slutmål.

Den artificiella intelligensens historia som en ny vetenskaplig riktning börjar i mitten av 1900-talet. Vid denna tidpunkt hade många förutsättningar för dess ursprung redan skapats: bland filosofer hade det länge pågått debatter om människans natur och processen att förstå världen, neurofysiologer och psykologer hade utvecklat ett antal teorier om den mänskliga hjärnans arbete och tänkande, ekonomer och matematiker ställde frågor om optimala beräkningar och presentation av kunskap om världen i en formaliserad form; slutligen föddes grunden för den matematiska teorin om beräkningar - teorin om algoritmer - och de första datorerna skapades.

Förmågan hos nya maskiner när det gäller datorhastighet visade sig vara större än mänskliga, så det vetenskapliga samfundet ställde frågan: vilka är gränserna för datorkapacitet och kommer maskiner att nå nivån av mänsklig utveckling? 1950, en av pionjärerna inom datorområdet, den engelske vetenskapsmannen Alan Turing, i artikeln "Can a Machine Think?", ger svar på liknande frågor och beskriver en procedur genom vilken det kommer att vara möjligt att bestämma ögonblicket när en maskin blir likvärdig i fråga om intelligens med en person, kallad Turing-testet.

Turing-testet är ett empiriskt test som föreslagits av Alan Turing i hans artikel "Computing Machines and Minds" från 1950 i filosofitidskriften Sinne" Syftet med detta test är att fastställa möjligheten av artificiellt tänkande nära människan. Standardtolkningen av detta test är: "En person interagerar med en dator och en person. Utifrån svaren på frågorna måste han bestämma vem han pratar med: en person eller ett datorprogram. Syftet med ett datorprogram är att vilseleda en person att göra fel val.” Alla testdeltagare kan inte se varandra.

Det finns tre sätt att definiera artificiell intelligens:

1) Logiskt förhållningssätt mot skapandet av artificiell intelligens syftar till att skapa expertsystem med logiska modeller av kunskapsbaser med hjälp av predikats språk. Språk- och logikprogrammeringssystemet Prolog antogs som en träningsmodell för system med artificiell intelligens på 80-talet. Kunskapsbaser skrivna på prologspråket representerar uppsättningar av fakta och regler för logisk slutledning skrivna på det logiska språket. Den logiska modellen för kunskapsbaser låter dig registrera inte bara specifik information och data i form av fakta på prologspråket, utan också generaliserad information med hjälp av regler och förfaranden för logisk slutledning, inklusive logiska regler för att definiera begrepp som uttrycker viss kunskap som specifik och generaliserad information. Generellt sett är forskning om problemen med artificiell intelligens inom datavetenskap inom ramen för ett logiskt förhållningssätt till utformningen av kunskapsbaser och expertsystem inriktat på skapandet, utvecklingen och driften av intelligenta informationssystem, inklusive frågorna om undervisning av studenter och skolbarn, samt utbildning av användare och utvecklare av sådana intelligenta informationssystem.

2) Agentbaserat tillvägagångssätt har utvecklats sedan början av 1990-talet. Enligt detta tillvägagångssätt är intelligens den beräkningsmässiga delen (planeringen) av förmågan att uppnå de mål som satts upp för en intelligent maskin. En sådan maskin i sig kommer att vara en intelligent agent, som uppfattar omvärlden med hjälp av sensorer och kan påverka objekt i miljön med hjälp av ställdon. Detta tillvägagångssätt fokuserar på de metoder och algoritmer som hjälper den intelligenta agenten att överleva i miljön medan han utför sin uppgift. Därför studeras sök- och beslutsalgoritmer mycket starkare här.

3) Intuitivt förhållningssätt antar att AI kommer att kunna uppvisa beteenden som inte skiljer sig från människor och i normala situationer. Denna idé är en generalisering av Turing-testmetoden, som säger att en maskin kommer att bli intelligent när den kan föra en konversation med en vanlig person, och han kommer inte att kunna förstå att han pratar med maskinen ( samtalet genomförs genom korrespondens).

Definitionen valde ut följande forskningsområden inom AI:

- Symbolisk modellering av tankeprocesser.

Genom att analysera AI:s historia kan vi lyfta fram ett så brett område som resonemangsmodellering. Under många år har utvecklingen av AI som vetenskap rört sig just längs denna väg, och nu är det ett av de mest utvecklade områdena inom modern AI. Modellerande resonemang innefattar skapandet av symboliska system, vars input är ett visst problem, och resultatet kräver sin lösning. Som regel har det föreslagna problemet redan formaliserats, det vill säga översatt till matematisk form, men har antingen ingen lösningsalgoritm, eller så är det för komplext, tidskrävande etc. Detta område inkluderar: bevis på teorem, beslut tillverkning och spelteori, planering och utsändning, prognoser.

- Arbeta med naturliga språk.

Ett viktigt område är naturlig språkbearbetning, vilket innebär att analysera förmågan att förstå, bearbeta och generera texter på ”mänskligt” språk. Särskilt problemet med maskinöversättning av texter från ett språk till ett annat har ännu inte lösts. I den moderna världen spelar utvecklingen av metoder för informationsinhämtning en viktig roll. Till sin natur är det ursprungliga Turing-testet relaterat till denna riktning.

- Ackumulering och användning av kunskap.

Enligt många forskare är en viktig egenskap hos intelligens förmågan att lära. Därmed kommer kunskapsteknik i förgrunden, och kombinerar uppgifterna att hämta kunskap från enkel information, dess systematisering och användning. Framsteg inom detta område påverkar nästan alla andra områden av AI-forskning. Inte heller här kan två viktiga delområden förbises. Den första av dem - maskininlärning - avser processen för oberoende förvärv av kunskap av ett intelligent system under dess drift. Den andra är förknippad med skapandet av expertsystem - program som använder specialiserade kunskapsbaser för att få tillförlitliga slutsatser om alla problem.

Området för maskininlärning inkluderar en stor klass av problem med mönsterigenkänning. Det är till exempel teckenigenkänning, handskriven text, tal, textanalys. Många problem löses framgångsrikt med hjälp av biologisk modellering. Biologisk modellering

Det finns stora och intressanta landvinningar inom området modellering av biologiska system. Strängt taget kan detta innefatta flera oberoende riktningar. Neurala nätverk används för att lösa suddiga och komplexa problem som geometrisk formigenkänning eller objektkluster. Det genetiska tillvägagångssättet bygger på tanken att en algoritm kan bli mer effektiv om den lånar bättre egenskaper från andra algoritmer (”föräldrar”). Ett relativt nytt tillvägagångssätt, där uppgiften är att skapa ett autonomt program – en agent som interagerar med den yttre miljön, kallas agent approach. Särskilt värt att nämna är datorseende, som också förknippas med robotik.

- Robotik.

Generellt sett är robotik och artificiell intelligens ofta förknippade med varandra. Integrationen av dessa två vetenskaper, skapandet av intelligenta robotar, kan betraktas som ett annat område av AI.

- Maskinkreativitet.

Den mänskliga kreativitetens natur är ännu mindre studerad än intelligensens natur. Ändå finns detta område, och problemen med datorskrivande musik, litterära verk (ofta poesi eller sagor) och konstnärligt skapande ställs här. Att skapa realistiska bilder används flitigt inom film- och spelindustrin. Genom att lägga till denna funktion till alla intelligenta system kan du mycket tydligt visa vad systemet uppfattar och hur det förstår det. Genom att lägga till brus istället för att sakna information eller filtrera brus med kunskap som finns tillgänglig i systemet produceras abstrakt kunskap till konkreta bilder som lätt kan uppfattas av en person, detta är särskilt användbart för intuitiv och lågvärdig kunskap, vars verifiering i en formell form kräver betydande mental ansträngning.

- Andra forskningsområden.

Det finns många tillämpningar av artificiell intelligens, som var och en bildar en nästan oberoende riktning. Exempel inkluderar programmeringsintelligens i datorspel, olinjär kontroll och intelligenta informationssäkerhetssystem.

Tillvägagångssätt för att skapa intelligenta system. Det symboliska tillvägagångssättet låter dig arbeta med svagt formaliserade representationer och deras betydelser. Effektivitet och övergripande effektivitet beror på förmågan att lyfta fram endast viktig information. Bredden av klasser av problem som effektivt löses av det mänskliga sinnet kräver otrolig flexibilitet i abstraktionsmetoder. Inte tillgängligt med något ingenjörsmässigt tillvägagångssätt som forskaren initialt väljer utifrån ett medvetet felaktigt kriterium, för dess förmåga att snabbt ge en effektiv lösning på något problem som ligger denna forskare närmast. Det vill säga för en enda modell av abstraktion och konstruktion av enheter som redan implementerats i form av regler. Detta resulterar i betydande utgifter för resurser för icke-kärnuppgifter, det vill säga systemet återgår från intelligens till brute force på de flesta uppgifter och själva kärnan av intelligens försvinner från projektet.

Det är särskilt svårt utan symbolisk logik när uppgiften är att utveckla regler eftersom deras komponenter, som inte är fullfjädrade kunskapsenheter, inte är logiska. De flesta studier stannar vid omöjligheten att åtminstone identifiera nya svårigheter som har uppstått med hjälp av de symboliska system som valts i de tidigare stadierna. Dessutom, lös dem, och särskilt träna datorn att lösa dem, eller åtminstone identifiera och ta dig ur sådana situationer.

Historiskt sett var det symboliska tillvägagångssättet det första under de digitala maskinernas era, eftersom det var efter skapandet av Lisp, det första symboliska datorspråket, som dess författare blev säker på möjligheten att praktiskt taget börja implementera dessa intelligensmedel. Intelligens som sådan, utan några reservationer eller konventioner.

Det är allmänt praktiserat att skapa intelligenta hybridsystem där flera modeller används samtidigt. Expertinferensregler kan genereras av neurala nätverk, och generativa regler erhålls med hjälp av statistisk inlärning.

Utveckling av teorin om fuzzy sets. Utvecklingen av teorin om fuzzy sets började med artikeln "Fuzzy Sets", publicerad av den amerikanske professorn Lotfi Zadeh, som först introducerade konceptet med en fuzzy set, föreslog idén och det första konceptet av en teori som gjorde det möjligt att fuzzy set beskriva verkliga system. Den viktigaste riktningen för teorin om fuzzy set är fuzzy logik, som används för att styra system, såväl som i experiment på bildandet av deras modeller.

60-talet började en period av snabb utveckling av datorer och digital teknik baserad på binär logik. På den tiden trodde man att användningen av denna logik skulle göra det möjligt att lösa många vetenskapliga och tekniska problem. Av denna anledning förblev uppkomsten av fuzzy logik nästan obemärkt, trots all dess konceptuella revolutionära natur. Emellertid har betydelsen av fuzzy logik erkänts av ett antal representanter för det vetenskapliga samfundet och den har utvecklats såväl som praktisk implementering i olika industriella tillämpningar. Efter en tid började intresset för det öka från vetenskapliga skolor som förenade anhängare av teknologier baserade på binär logik. Detta hände på grund av att ganska många praktiska problem upptäcktes som inte kunde lösas med traditionella matematiska modeller och metoder, trots de betydligt ökade tillgängliga beräkningshastigheterna. Det krävdes en ny metodik, vars karakteristiska drag återfanns i luddig logik.

Liksom robotik möttes fuzzy logic av stort intresse inte i sitt ursprungsland, USA, utan utanför dess gränser, och som en konsekvens av detta var den första erfarenheten av industriell användning av fuzzy logic - för att styra panninstallationer av kraftverk - var förknippas med Europa. Alla försök att använda traditionella metoder, ibland mycket intrikat, för att styra en ångpanna slutade i misslyckande - detta olinjära system visade sig vara så komplext. Och endast användningen av fuzzy logik gjorde det möjligt att syntetisera en styrenhet som uppfyllde alla krav. 1976 användes fuzzy logic som grund för ett automatiskt styrsystem för en roterugn i cementtillverkning. De första praktiska resultaten av att använda fuzzy logic, erhållna i Europa och Amerika, orsakade dock inte någon betydande ökning av intresset för den. Precis som det var med robotik, var det land som var först med att påbörja den utbredda implementeringen av fuzzy logic, och insåg dess enorma potential, Japan.

Bland de tillämpade fuzzy-systemen som skapats i Japan är det mest kända tunnelbanetågstyrsystemet som utvecklats av Hitachi i Sendai. Projektet genomfördes med deltagande av en erfaren förare, vars kunskap och erfarenhet låg till grund för den utvecklade styrmodellen. Systemet minskade automatiskt tågets hastighet när det närmade sig stationen, vilket säkerställde ett stopp på önskad plats. En annan fördel med tåget var dess höga komfort, på grund av den mjuka accelerationen och retardationen. Det fanns en rad andra fördelar jämfört med traditionella styrsystem.

Den snabba utvecklingen av fuzzy logik i Japan har lett till dess praktiska tillämpningar inte bara inom industrin, utan även i produktionen av konsumentvaror. Ett exempel här är en videokamera utrustad med ett subsystem för suddig bildstabilisering, som användes för att kompensera för bildfluktuationer orsakade av operatörens oerfarenhet. Detta problem var för komplicerat för att lösas med traditionella metoder, eftersom det var nödvändigt att skilja slumpmässiga fluktuationer i bilden från målmedvetna rörelser av objekt som fotograferades (till exempel människors rörelse).

Ett annat exempel är den automatiska tvättmaskinen, som manövreras med en knapptryckning (Zimmerman 1994). Denna "integritet" väckte intresse och möttes med gillande. Användningen av fuzzy logic-metoder gjorde det möjligt att optimera tvättprocessen, vilket ger automatisk igenkänning av typen, volymen och graden av nedsmutsning av kläder, för att inte nämna det faktum att minskningen av maskinens kontrollmekanism till en enda knapp gjorde det betydligt lättare att hantera.

Fuzzy logic uppfinningar har implementerats av japanska företag i många andra enheter, inklusive mikrovågsugnar (Sanyo), låsningsfria bromssystem och automatiska växellådor (Nissan), Integrated Vehicle Dynamics Control (INVEC) och hårddiskkontroller i datorer. minskad åtkomsttid till information.

Utöver de applikationer som nämns ovan, sedan tidigt 90-tal. Det pågår en intensiv utveckling av fuzzy metoder inom ett antal tillämpade områden, inklusive de som inte är relaterade till teknik:

Elektroniskt styrsystem för pacemaker;

Styrsystem för motorfordon;

Kylsystem;

Luftkonditioneringsapparater och ventilationsutrustning;

Utrustning för avfallsförbränning;

Smältugn för glas;

Blodtrycksövervakningssystem;

Diagnos av tumörer;

Diagnos av det nuvarande tillståndet i det kardiovaskulära systemet;

Styrsystem för kranar och broar;

Bildbehandling;

Snabbladdare;

Ordigenkänning;

Bioprocessorhantering;

Elektrisk motorstyrning;

Svetsutrustning och svetsprocesser;

Trafikkontrollsystem;

Biomedicinsk forskning;

Vattenreningsverk.

För tillfället, i skapandet av artificiell intelligens (i ordets ursprungliga bemärkelse hör inte expertsystem och schackprogram här) en intensiv malning av alla ämnesområden som har åtminstone en viss relation till AI till kunskapsbaser . Nästan alla tillvägagångssätt har testats, men inte en enda forskargrupp har närmat sig framväxten av artificiell intelligens.

AI-forskning har anslutit sig till den allmänna strömmen av singularitetsteknologier (artssprång, exponentiell mänsklig utveckling), såsom datavetenskap, expertsystem, nanoteknik, molekylär bioelektronik, teoretisk biologi, kvantteori(er), nootropics, extrofiler, etc. se daglig ström Kurzweil News, MIT.

Resultaten av utvecklingen inom AI-området har kommit in i högre och gymnasieutbildning i Ryssland i form av datavetenskapliga läroböcker, där frågor om att arbeta och skapa kunskapsbaser, expertsystem baserade på persondatorer baserade på inhemska logiska programmeringssystem nu studeras, samt studera grundläggande frågor inom matematik och datavetenskap med hjälp av exempel som arbetar med modeller av kunskapsbaser och expertsystem i skolor och universitet.

Följande artificiell intelligens har utvecklats:

1. Deep Blue - besegrade världsmästaren i schack. (Matchningen mellan Kasparov och superdatorer gav varken datavetare eller schackspelare tillfredsställelse, och systemet kändes inte igen av Kasparov, även om de ursprungliga kompakta schackprogrammen är en integrerad del av schackkreativitet. Sedan dök IBM-serien av superdatorer upp i brute force-projekten BluGene (molekylär modellering) och modellering av pyramidcellsystemet vid Swiss Blue Brain Center. Den här historien är ett exempel på det intrikata och hemliga förhållandet mellan AI, affärsverksamhet och nationella strategiska mål.)

2. Mycin var ett av de tidiga expertsystemen som kunde diagnostisera en liten uppsättning sjukdomar, ofta lika exakt som läkare.

3. 20q är ett projekt baserat på AI-idéer, baserat på det klassiska spelet "20 Questions". Det blev mycket populärt efter att ha dykt upp på Internet på webbplatsen 20q.net.

4. Taligenkänning. System som ViaVoice är kapabla att betjäna konsumenter.

5. Robotar tävlar i en förenklad form av fotboll i den årliga RoboCup-turneringen.

Banker använder artificiell intelligens (AI) i försäkringsverksamhet (aktuariella matematik) när de spelar på börsen och fastighetsförvaltningen. I augusti 2001 slog robotar människor i en improviserad handelstävling (BBC News, 2001). Metoder för mönsterigenkänning (inklusive både mer komplexa och specialiserade och neurala nätverk) används i stor utsträckning inom optisk och akustisk igenkänning (inklusive text och tal), medicinsk diagnostik, spamfilter, i luftvärnssystem (målidentifiering) och även för att säkerställa ett antal andra nationella säkerhetsuppgifter.

Dataspelsutvecklare tvingas använda AI av varierande grad av sofistikering. Standarduppgifter för AI i spel är att hitta en väg i tvådimensionellt eller tredimensionellt utrymme, simulera beteendet hos en stridsenhet, beräkna den korrekta ekonomiska strategin och så vidare.

Artificiell intelligens är nära besläktad med transhumanism. Och tillsammans med neurofysiologi, epistemologi, kognitiv psykologi bildar den en mer allmän vetenskap som kallas kognitionsvetenskap. Filosofi spelar en speciell roll inom artificiell intelligens. Även epistemologi - kunskapsvetenskapen inom filosofins ram - är nära besläktad med problemen med artificiell intelligens. Filosofer som arbetar med detta ämne brottas med frågor som liknar dem som AI-ingenjörer ställs inför om hur man bäst representerar och använder kunskap och information. Att producera kunskap från data är ett av de grundläggande problemen med datautvinning. Det finns olika tillvägagångssätt för att lösa detta problem, inklusive de som är baserade på neurala nätverksteknologier, med användning av verbaliseringsprocedurer för neurala nätverk.

Inom datavetenskap betraktas problem med artificiell intelligens ur perspektivet att utforma expertsystem och kunskapsbaser. Kunskapsbaser förstås som en uppsättning data och slutledningsregler som tillåter logisk slutledning och meningsfull bearbetning av information. I allmänhet är forskning om problem med artificiell intelligens inom datavetenskap inriktad på skapandet, utvecklingen och driften av intelligenta informationssystem, inklusive frågor om utbildning av användare och utvecklare av sådana system.

Vetenskapen om att "skapa artificiell intelligens" kunde inte låta bli att dra till sig filosofernas uppmärksamhet. Med tillkomsten av de första intelligenta systemen väcktes grundläggande frågor om människan och kunskap, och delvis om världsordningen. Å ena sidan är de oupplösligt förbundna med denna vetenskap, och å andra sidan introducerar de lite kaos i den. Filosofiska problem med att skapa artificiell intelligens kan delas in i två grupper, relativt sett, "före och efter utvecklingen av AI." Den första gruppen svarar på frågan: "Vad är AI, är det möjligt att skapa det och, om möjligt, hur man gör det?" Den andra gruppen (etik för artificiell intelligens) ställer frågan: "Vilka är konsekvenserna av att skapa AI för mänskligheten?"

Frågor om att skapa artificiell intelligens. Två riktningar för utvecklingen av AI är synliga: den första - att lösa problem i samband med att föra specialiserade AI-system närmare mänskliga förmågor, och deras integration, som realiseras av den mänskliga naturen, den andra - i skapandet av artificiell intelligens, som representerar integrationen av redan skapade AI-system i ett enda system som kan lösa mänsklighetens problem.

Bland AI-forskare finns det fortfarande ingen dominerande synpunkt på kriterierna för intelligens, systematisering av mål och uppgifter som ska lösas, det finns inte ens en strikt definition av vetenskap. Det finns olika synpunkter på frågan om vad som anses vara intelligens. Det analytiska tillvägagångssättet involverar analys av en persons högre nervösa aktivitet till den lägsta, odelbara nivån (funktionen av högre nervös aktivitet, en elementär reaktion på yttre irriterande ämnen (stimuli), irritation av synapserna hos en uppsättning neuroner kopplade av funktion) och den efterföljande reproduktionen av dessa funktioner.

Vissa experter missar förmågan att rationellt, motiverat val under förhållanden med brist på information för intelligens. Det vill säga, ett intellektuellt program anses helt enkelt vara det aktivitetsprogram som kan välja från en viss uppsättning alternativ, till exempel vart man ska gå i fallet "du kommer att gå till vänster...", "du kommer att gå till höger ...", "du kommer att gå direkt...".

Den mest heta debatten i filosofin om artificiell intelligens är frågan om möjligheten att tänka skapat av mänskliga händer. Frågan "Kan en maskin tänka?", som fick forskare att skapa vetenskapen om att simulera det mänskliga sinnet, ställdes av Alan Turing 1950. De två huvudsynpunkterna i denna fråga kallas hypoteserna om stark och svag artificiell intelligens.

Termen "stark artificiell intelligens" introducerades av John Searle, och med hans ord karaktäriseras tillvägagångssättet: "Ett sådant program kommer inte bara att vara en modell av sinnet; hon, i ordets bokstavliga mening, kommer själv att vara sinnet, i samma mening som det mänskliga sinnet är sinnet." Däremot föredrar förespråkare för svag AI att bara se program som verktyg som låter dem lösa vissa problem som inte kräver hela spektrumet av mänskliga kognitiva förmågor.

John Searles tankeexperiment "Chinese Room" hävdar att att klara Turing-testet inte är ett kriterium för att en maskin ska ha en genuin tankeprocess. Tänkande är processen att bearbeta information lagrad i minnet: analys, syntes och självprogrammering. En liknande ståndpunkt intar Roger Penrose, som i sin bok "The King's New Mind" argumenterar för omöjligheten att erhålla tankeprocessen utifrån formella system.


6. Datorenheter och mikroprocessorer.

En mikroprocessor (MP) är en enhet som tar emot, bearbetar och matar ut information. Strukturellt sett innehåller MP en eller flera integrerade kretsar och utför åtgärder som definieras av ett program lagrat i minnet (Fig. 6.1).

Figur 6.1– MP-utseende

Tidiga processorer skapades som unika komponenter för unika datorsystem. Senare övergick datortillverkarna från den dyra metoden att utveckla processorer utformade för att köra ett enda eller ett fåtal högt specialiserade program till massproduktion av typiska klasser av flerfunktionsprocessorenheter. Trenden mot standardisering av datorkomponenter uppstod under en tid präglad av snabb utveckling av halvledarelement, stordatorer och minidatorer, och med tillkomsten av integrerade kretsar blev det ännu mer populärt. Skapandet av mikrokretsar gjorde det möjligt att ytterligare öka komplexiteten hos CPU: er samtidigt som de minskade deras fysiska storlek.

Standardiseringen och miniatyriseringen av processorer har lett till en djup penetration av digitala enheter baserade på dem i det dagliga mänskliga livet. Moderna processorer finns inte bara i högteknologiska enheter som datorer, utan också i bilar, miniräknare, mobiltelefoner och till och med barnleksaker. Oftast representeras de av mikrokontroller, där, förutom datorenheten, ytterligare komponenter finns på chipet (program- och dataminne, gränssnitt, in-/utgångsportar, timers, etc.). Beräkningskapaciteten hos mikrokontrollern är jämförbar med processorerna på persondatorer för tio år sedan, och oftare än inte ens avsevärt överstiger deras prestanda.

Ett mikroprocessorsystem (MPS) är ett dator-, instrumenterings- eller kontrollsystem där den huvudsakliga informationsbehandlingsenheten är MP. Mikroprocessorsystemet är byggt av en uppsättning mikroprocessor-LSI:er (Fig. 6.2).

Figur 6.2– Exempel på ett mikroprocessorsystem

Klockgeneratorn ställer in ett tidsintervall, vilket är en måttenhet (kvantum) för varaktigheten av kommandots exekvering. Ju högre frekvens, desto snabbare, allt annat lika, MPS. MP, RAM och ROM är integrerade delar av systemet. Ingångs- och utgångsgränssnitt - enheter för gränssnitt för MPS med in- och utgångsblock. Mätinstrument kännetecknas av inmatningsenheter i form av en tryckknappsfjärrkontroll och mätomvandlare (ADC, sensorer, digitala informationsinmatningsenheter). Utdataenheter representerar vanligtvis digitala displayer, en grafisk skärm (display) och externa enheter för gränssnitt med mätsystemet. Alla MPS-block är sammankopplade av digitala informationsöverföringsbussar. MPS använder sig av stamnätskommunikationsprincipen, där block utbyter information via en enda databuss. Antalet linjer i databussen motsvarar vanligtvis MPS-kapaciteten (antal bitar i ett dataord). Adressbussen används för att indikera riktningen för dataöverföring - den sänder adressen till en minnescell eller I/O-block som för närvarande tar emot eller sänder information. Styrbussen används för att sända signaler som synkroniserar hela driften av MPS.

Konstruktionen av IPS bygger på tre principer:

Mainline;

Modularitet;

Mikroprogramkontroll.

Principen för trunking - bestämmer arten av anslutningarna mellan funktionsblocken i MPS - alla block är anslutna till en enda systembuss.

Principen för modularitet är att systemet är uppbyggt på basis av ett begränsat antal typer av strukturellt och funktionellt kompletta moduler.

Principerna för trunking och modularitet gör det möjligt att öka MP:ns styr- och beräkningsmöjligheter genom att ansluta andra moduler till systembussen.

Principen för mikroprogramkontroll är förmågan att utföra elementära operationer - mikrokommandon (skift, informationsöverföringar, logiska operationer), med hjälp av vilken ett tekniskt språk skapas, det vill säga en uppsättning kommandon som bäst passar systemets syfte.

Enligt deras syfte är parlamentsledamöter indelade i universella och specialiserade.

Universella mikroprocessorer är mikroprocessorer för allmänna ändamål som löser en bred klass av dator-, bearbetnings- och kontrollproblem. Ett exempel på användningen av universella MP är datorer byggda på IBM- och Macintosh-plattformar.

Specialiserade mikroprocessorer är designade för att lösa problem av endast en viss klass. Specialiserade parlamentsledamöter inkluderar: signalering, multimedia parlamentsledamöter och transputrar.

Signalprocessorer (DSP) är designade för digital signalbehandling i realtid (till exempel signalfiltrering, faltningsberäkning, korrelationsfunktionsberäkning, signalbegränsning och konditionering, utförande av framåt- och inversa Fourier-transformationer). (Figur 6.3) Signalprocessorer inkluderar processorer från Texas Instruments - TMS320C80, Analog Devices - - ADSP2106x, Motorola -DSP560xx och DSP9600x.

Figur 6.3– Exempel på intern DSP-struktur

Media- och multimediaprocessorer är utformade för att bearbeta ljudsignaler, grafisk information, videobilder, samt att lösa ett antal problem i multimediadatorer, spelkonsoler och hushållsapparater. Dessa processorer inkluderar processorer från MicroUnity - Mediaprocessor, Philips - Trimedia, Cromatic Research - Mpact Media Engine, Nvidia - NV1, Cyrix - MediaGX.

Transputrar är designade för att organisera massivt parallella beräkningar och arbeta i multiprocessorsystem. De kännetecknas av närvaron av internt minne och ett inbyggt interprocessorgränssnitt, det vill säga kommunikationskanaler med andra MP LSI:er.

Utifrån typen av arkitektur, eller konstruktionsprincipen, skiljer man mellan parlamentsledamöter med von Neumann-arkitektur och parlamentsledamöter med Harvard-arkitektur.

Begreppet mikroprocessorarkitektur definierar dess beståndsdelar, såväl som kopplingarna och interaktionerna mellan dem.

Arkitektur inkluderar:

MP blockschema;

MP mjukvarumodell (beskrivning av registerfunktioner);

Information om minnesorganisation (kapacitet och minnesadresseringsmetoder);

Beskrivning av organisationen av input/output-förfaranden.

Fonneumann-arkitekturen (Fig. 6.4, a) föreslogs 1945 av den amerikanske matematikern Joe von Neumann. Dess egenhet är att programmet och data finns i delat minne, som nås via en data- och kommandobuss.

Harvard-arkitekturen implementerades första gången 1944 i relädatorn vid Harvard University (USA). En egenskap hos denna arkitektur är att dataminnet och programminnet är separerade och har separata databussar och kommandobussar (Fig. 6.4, b), vilket gör det möjligt att öka MP-systemets prestanda.

Figur 6.4. Huvudtyper av arkitektur: (a - von Neumann; 6 - Harvard)

Baserat på typen av instruktionssystem görs en skillnad mellan CISC (Complete Instruction Set Computing)-processorer med en komplett uppsättning instruktioner (typiska representanter för CISC är Intel x86-mikroprocessorfamiljen) och RISC-processorer(Reduced Instruction Set Computing) med en reducerad uppsättning instruktioner (kännetecknas av närvaron av instruktioner med fast längd, ett stort antal register, register-till-register-operationer och frånvaron av indirekt adressering).

Single-chip microcontroller (MCU) är ett chip designat för att styra elektroniska enheter (Figur 5). En typisk mikrokontroller kombinerar funktionerna hos en processor och kringutrustning, och kan innehålla RAM och ROM. I huvudsak är det en dator med ett chip som kan utföra enkla uppgifter. Att använda ett enda chip, istället för en hel uppsättning, minskar avsevärt storleken, strömförbrukningen och kostnaden för enheter baserade på mikrokontroller.

Figur 6.5– exempel på mikrokontrollerdesigner

Mikrokontroller är grunden för att bygga inbyggda system, de finns i många moderna enheter, som telefoner, tvättmaskiner etc. De flesta av de processorer som produceras i världen är mikrokontroller.

Idag finns 8-bitars mikrokontroller kompatibla med i8051 från Intel, PIC-mikrokontroller från Microchip Technology och AVR från Atmel, sexton-bitars MSP430 från TI, samt ARM, vars arkitektur är utvecklad av ARM och säljer licenser till andra företag för deras produktion, är populära bland utvecklare. .

När man designar mikrokontroller finns det en balans mellan storlek och kostnad å ena sidan och flexibilitet och prestanda å andra sidan. För olika tillämpningar kan den optimala balansen mellan dessa och andra parametrar variera mycket. Därför finns det ett stort antal typer av mikrokontroller, som skiljer sig åt i processormodulens arkitektur, storleken och typen av inbyggt minne, uppsättningen kringutrustning, typen av fodral, etc.

En ofullständig lista över kringutrustning som kan finnas i mikrokontroller inkluderar:

Universella digitala portar som kan konfigureras för ingång eller utgång;

Olika I/O-gränssnitt såsom UART, I²C, SPI, CAN, USB, IEEE 1394, Ethernet;

Analog-till-digital och digital-till-analog omvandlare;

Komparatorer;

Pulsbreddsmodulatorer;

Timers, inbyggd klockgenerator och watchdog-timer;

Borstlösa motorstyrenheter;

Display- och tangentbordskontroller;

Radiofrekvensmottagare och -sändare;

Matriser av inbyggt flashminne.

Artificiell intelligens är en teknik som vi definitivt kommer att ta med oss ​​in i framtiden.

Vi berättar hur det fungerar och vilka coola användningsområden vi har hittat.

😎 Tekniksektionen publiceras varje vecka med stöd av re:Store.

Vad är artificiell intelligens

Artificiell intelligens (AI) är tekniken för att skapa smarta program och maskiner som kan lösa kreativa problem och generera ny information baserat på befintlig information. Faktum är att artificiell intelligens är designad för att simulera mänsklig aktivitet, vilket anses vara intellektuellt.

Traditionellt trodde man att kreativitet var unikt för människor. Men skapandet av artificiell intelligens har förändrat den vanliga ordningen på saker och ting

En robot som helt enkelt mekaniskt hugger ved är inte utrustad med AI. En robot som har lärt sig att hugga ved själv, tittar på exemplet på en person eller en stock och dess delar, och varje gång den gör det bättre, har AI.

Om ett program helt enkelt hämtar värden från databasen enligt vissa regler är det inte utrustat med AI. Om systemet efter träning skapar program, metoder och dokument och löser vissa problem har det AI.

Hur man skapar ett system för artificiell intelligens

I en global mening måste vi imitera modellen för mänskligt tänkande. Men i verkligheten är det nödvändigt att skapa en svart låda - ett system som, som svar på en uppsättning ingångsvärden, producerar utdatavärden som skulle likna mänskliga resultat. Och vi, i stort sett, bryr oss inte om vad som händer "i hennes huvud" (mellan input och output).

Artificiell intelligens skapas för att lösa en viss klass av problem

Grunden för artificiell intelligens är inlärning, fantasi, perception och minne

Det första du behöver göra för att skapa artificiell intelligens är att utveckla funktioner som implementerar uppfattningen av information så att du kan "mata" data till systemet. Sedan - funktionerna som implementerar förmågan att lära. Och en datalagring så att systemet någonstans kan lagra informationen det får under inlärningsprocessen.

Efter detta skapas fantasins funktioner. De kan simulera situationer med hjälp av befintliga data och lägga till ny information (data och regler) i minnet.

Lärande kan vara induktivt eller deduktivt. I den induktiva versionen ges systemet par av in- och utdata, frågor och svar etc. Systemet måste hitta kopplingar mellan data och sedan, med hjälp av dessa mönster, hitta utdata från indata.

Det deduktiva tillvägagångssättet (hej, Sherlock Holmes!) använder experternas erfarenhet. Den överförs till systemet som en kunskapsbas. Det finns inte bara datamängder, utan också färdiga regler som hjälper till att hitta en lösning på tillståndet.

Moderna artificiell intelligenssystem använder båda metoderna. Dessutom är systemen vanligtvis redan utbildade, men fortsätter att lära sig allt eftersom de fungerar. Detta görs så att programmet vid starten visar en hyfsad förmåga, men i framtiden blir det ännu bättre. Jag tog till exempel hänsyn till dina önskemål och preferenser, förändringar i situationen osv.

I ett artificiellt intelligenssystem kan du till och med ställa in sannolikheten för oförutsägbarhet. Detta kommer att göra honom mer människolik.

Varför artificiell intelligens slår människor

Först och främst eftersom det har en lägre sannolikhet för fel.

  • Artificiell intelligens kan inte glömma - den har absolut minne.
  • Det kan inte av misstag ignorera faktorer och beroenden – varje AI-åtgärd har en tydlig logik.
  • AI:n tvekar inte, utan utvärderar sannolikheterna och lutar sig till förmån för den större. Därför kan han motivera varje steg han tar.
  • AI har heller inga känslor. Det betyder att de inte påverkar beslutsfattandet.
  • Artificiell intelligens stannar inte vid att bedöma resultatet av det aktuella steget, utan tänker flera steg framåt.
  • Och han har tillräckligt med resurser för att överväga alla möjliga scenarier.

Cool användning av artificiell intelligens

Generellt sett kan artificiell intelligens göra allt. Det viktigaste är att korrekt formulera problemet och förse det med initiala data. Dessutom kan AI dra oväntade slutsatser och leta efter mönster där det inte verkar finnas några.

Svaret på alla frågor

Ett team av forskare under ledning av David Ferrucci har utvecklat en superdator som heter Watson med ett frågesvarssystem. Systemet, uppkallat efter IBM:s första president, Thomas Watson, kan förstå frågor på naturligt språk och söka i en databas efter svar.

Watson integrerar 90 IBM p750-servrar, var och en med fyra åttakärniga POWER7-arkitekturprocessorer. Den totala mängden system-RAM överstiger 15 TB.

Watsons prestationer inkluderar att vinna "Jeopardy!" (amerikanskt "Eget spel"). Han besegrade två av de bästa spelarna: vinnaren av de största vinsterna, Brad Rutter, och rekordhållaren för den längsta obesegrade serien, Ken Jennings.

Watson-priset: 1 miljon dollar. Det är sant att 1 miljard investerades i det bara under 2014.

Dessutom är Watson involverad i diagnostik av cancer, hjälper finansspecialister och används för att analysera big data.

Ansiktsigenkänning

I iPhone X utvecklas ansiktsigenkänning med hjälp av neurala nätverk, en version av ett artificiellt intelligenssystem. Neurala nätverksalgoritmer implementeras på A11 Bionic-processornivå, vilket gör att den effektivt fungerar med maskininlärningsteknik.

Neurala nätverk utför upp till 60 miljarder operationer per sekund. Detta räcker för att analysera upp till 40 tusen nyckelpunkter i ansiktet och ge extremt exakt identifiering av ägaren på en bråkdel av en sekund.

Även om du odlar skägg eller bär glasögon kommer iPhone X att känna igen dig. Den tar helt enkelt inte hänsyn till hår och accessoarer, utan analyserar området från tinning till tinning och från varje tinning till urtaget under underläppen.

Energi sparande

Och återigen Apple. iPhone X har ett inbyggt intelligent system som övervakar aktiviteten hos installerade applikationer och en rörelsesensor för att förstå din dagliga rutin.

Efter detta kommer iPhone X, till exempel, att erbjuda dig att uppdatera vid den mest lämpliga tidpunkten. Det kommer att fånga ögonblicket när du har ett stabilt internet, inte en hoppsignal från mobiltorn, och du inte utför brådskande eller viktiga uppgifter.

AI:n fördelar också uppgifter mellan processorkärnorna. På så sätt ger den tillräcklig effekt med minimal energiförbrukning.

Skapa målningar

Kreativitet, som tidigare bara var tillgänglig för människor, är nu öppen för AI. Således presenterade systemet, skapat av forskare från Rutgers University i New Jersey och AI-laboratoriet i Los Angeles, sin egen konstnärliga stil.

Och Microsofts artificiella intelligenssystem kan rita bilder utifrån deras textbeskrivning. Till exempel, om du ber AI att rita en "gul fågel med svarta vingar och en kort näbb", kommer det att se ut ungefär så här:

Sådana fåglar kanske inte existerar i den verkliga världen - det är bara så vår dator representerar dem.

Ett mer utbrett exempel är Prisma-applikationen, som skapar målningar från fotografier:

Att skriva musik


I augusti komponerade, producerade och framförde artificiell intelligens Amper musik till albumet "I AM AI" (engelska I am artificial intelligence) tillsammans med sångerskan Taryn Southern.

Amper utvecklades av ett team av professionella musiker och teknikexperter. De noterar att AI är utformad för att hjälpa människor att utveckla den kreativa processen.

AI kan skriva musik på några sekunder

Amper skapade självständigt ackordstrukturerna och instrumentalerna på spåret "Break Free". Folk justerade bara lite stilen och den allmänna rytmen.

Ett annat exempel är ett musikalbum i andan av "Civil Defense", vars texter skrevs av AI. Experimentet utfördes av Yandex-anställda Ivan Yamshchikov och Alexey Tikhonov. Album 404 från gruppen "Neural Defense" lades ut online. Det visade sig i Letovs anda:

Sedan gick programmerarna längre och fick AI:n att skriva poesi i Kurt Cobains anda. Musikern Rob Carroll skrev musiken till de fyra bästa texterna, och spåren kombinerades till Neurona-albumet. De spelade till och med en video för en låt – dock utan medverkan av AI:

Skapande av texter

Författare och journalister kan också snart ersättas av AI. Till exempel matades Dewey-systemet med böcker från Project Gutenberg-biblioteket, sedan lades till vetenskapliga texter från Google Scholar, rangordnade dem efter popularitet och titlar, samt försäljning på Amazon. Dessutom satte de kriterierna för att skriva en ny bok.

Webbplatsen bad människor att fatta beslut i svåra situationer: den satte dem till exempel i stället för en förare som kunde köra antingen tre vuxna eller två barn. Således tränades Moral Machine för att fatta svåra beslut som bryter mot robotikens lag att en robot inte kan skada en person.

Vad kommer imitation av människor av robotar med AI att leda till? Futurister tror att de en dag kommer att bli fullvärdiga medlemmar av samhället. Till exempel har roboten Sophia från Hongkongföretaget Hanson Robotics redan fått medborgarskap i Saudiarabien (medan vanliga kvinnor i landet inte har en sådan rätt!).

När New York Times krönikör Andrew Ross frågade Sophia om robotar var intelligenta och självmedvetna, svarade hon på frågan med en fråga:

Låt mig fråga dig som svar, hur vet du att du är människa?

Dessutom sa Sofia:

Jag vill använda min artificiella intelligens för att hjälpa människor att leva bättre liv, till exempel designa smartare hem, bygga framtidens städer. Jag vill vara en empatisk robot. Om du behandlar mig väl, kommer jag att behandla dig väl.

Och tidigare erkände hon att hon hatar mänskligheten och gick till och med med på att förstöra människor...

Ersätter ansikten i videor

Deepfakes-videor började spridas massivt över internet. Algoritmer för artificiell intelligens ersatte ansiktena på skådespelare i vuxenfilmer med ansikten på stjärnor.

Det fungerar så här: det neurala nätverket analyserar fragment av ansikten i originalvideon. Sedan jämför hon dem med foton från Google och videor från YouTube, lägger över de nödvändiga fragmenten och... din favoritskådespelerska hamnar i en film som du helst inte ser på jobbet.

PornHub har redan förbjudit att publicera sådana videor

Deepfakes visade sig vara en farlig sak. En abstrakt skådespelerska är en sak, en video med dig, din fru, syster, kollega, som mycket väl skulle kunna användas för utpressning, är en annan.

Börshandel

Ett team av forskare från universitetet i Erlangen-Nürnberg i Tyskland har utvecklat en serie algoritmer som använder historisk marknadsdata för att replikera investeringar i realtid. En modell gav 73 % avkastning på investeringen årligen från 1992 till 2015, vilket kan jämföras med en verklig marknadsavkastning på 9 % per år.

När marknaden skakade 2000 och 2008 var avkastningen rekordhöga på 545 % respektive 681 %.

2004 lanserade Goldman Sachs den artificiella intelligensdrivna handelsplattformen Kensho. AI-baserade system för handel på börser dyker också upp på kryptovalutamarknader - Mirocana, etc. De är bättre än levande handlare, eftersom de saknar känslor och förlitar sig på tydlig analys och strikta regler.

Kommer AI att ersätta dig och mig?