Métodos de inteligencia artificial (IA) en juegos de ordenador. Creciendo la inteligencia artificial usando un juego simple como ejemplo Algoritmo de inteligencia artificial con entrenamiento

En este artículo, compartiré mi experiencia en el desarrollo de la inteligencia artificial (IA) más simple utilizando un algoritmo genético y también hablaré sobre el conjunto mínimo de comandos necesarios para generar cualquier comportamiento.

El resultado del trabajo fue que la IA, sin conocer las reglas, dominó de forma independiente el juego tres en raya y encontró las debilidades de los robots que jugaban contra él. Pero comencé con una tarea aún más sencilla.

conjunto de comandos

Todo empezó con la preparación de un conjunto de comandos que podría tener la IA. Los lenguajes de alto nivel contienen cientos de operadores diferentes. Para resaltar el mínimo requerido, decidí recurrir al lenguaje ensamblador. Sin embargo, resultó que también contiene muchos comandos.

Necesitaba que la IA pudiera leer y generar datos, trabajar con la memoria, realizar cálculos y operaciones lógicas, realizar transiciones y bucles. Me encontré con el lenguaje Brainfuck, que contiene solo 8 comandos y puede realizar cualquier cálculo (es decir, es Turing completo). En principio, es adecuado para la programación genética, pero fui más allá.

Me preguntaba: ¿cuál es la cantidad mínima de comandos necesarios para implementar cualquier algoritmo? Al final resultó que, ¡solo había uno!

El procesador URISC contiene solo una instrucción: restar y omitir la siguiente instrucción si el sustraendo era mayor que el minuendo. Esto es suficiente para construir cualquier algoritmo.

Oleg Mazonka fue aún más lejos: desarrolló el comando BitBitJump y demostró que es Turing completo. La instrucción contiene tres direcciones, copia un bit de la primera a la segunda dirección de memoria y transfiere el control a la tercera dirección.

Tomando prestadas las ideas de Oleg, para simplificar el trabajo, desarrollé el comando SumIfJump. El comando contiene cuatro operandos: A, B, C, D y hace lo siguiente: a la celda en la dirección B agrega datos de la celda en la dirección A, si el valor es mayor que el valor especificado*, entonces va a la dirección C, en caso contrario pasa a la dirección D.

Nota

*En este caso, se utilizó 128, la mitad de la longitud del genoma.


Cuando el operando A accede a la ubicación de memoria N0, se produce la entrada de datos, y cuando el operando A accede a la ubicación de memoria N1, se produce la salida.

A continuación se muestra el código SumIfJump en FreePascal (un análogo gratuito de Delphi).

Procedimiento RunProg(s: TData); var a, b, c, d: TData; comenzar Inc(NStep); si NStep > MaxStep entonces comienza ProgResult:= "MaxStep"; Salida; fin; a:= s; b:= s + 1; c:= s + 2; re:= s + 3; a:= Prog[a]; b:= Prog[b]; c:= Programa[c]; d:=Prog[d]; si a = 0 entonces comience ProgResult:= "Entrada"; Salida; fin; si a = 1 entonces comience ProgResult:= "Salida"; Salida; fin; Prog[b] := Prog[b] + Prog[a]; si Prog[b]< ProgLength div 2 then RunProg(c) else RunProg(d); end;
SumIfJump implementa código automodificable. Puede ejecutar cualquier algoritmo disponible en un lenguaje de programación convencional. El código es fácil de cambiar y resiste cualquier manipulación.

Tarea sencilla

Entonces, nuestra IA tiene un solo comando. Hasta ahora, el tres en raya es un juego muy difícil para él, así que comencé con uno más sencillo.

El robot produce un número aleatorio y la IA debe leer los datos y dar una respuesta. Si el número es mayor que el promedio (del rango de números aleatorios), la IA debería producir un número menor que el promedio y viceversa.

El genoma de nuestra IA consta de 256 células con valores del 0 al 255. Cada valor es una memoria, un código y una dirección. El número de pasos de ejecución del código está limitado a 256. Los operandos se leen uno tras otro.

Inicialmente, el genoma se genera mediante un conjunto de números aleatorios, por lo que la IA no sabe qué necesita para jugar. Además, no sabe que necesita ingresar y generar datos secuencialmente cuando responde al bot.

Población y selección.

La primera población consta de 256 IA que empiezan a jugar con el bot. Si la IA realiza las acciones correctas, por ejemplo, solicita datos para ingresar y luego genera algo, entonces la IA recibe puntos. Cuantas más acciones correctas, más puntos.

Las 16 IA que obtienen la mayor cantidad de puntos producen cada una 15 crías y continúan participando en el juego. Un descendiente es un mutante. La mutación se produce al reemplazar una celda aleatoria en una copia del padre con un valor aleatorio.

Si ninguna IA obtiene puntuación en la primera población, se forma la siguiente población. Y así sucesivamente hasta que una de las IA comience a realizar las acciones correctas y produzca la descendencia "correcta".

Evolución


Entre acontecimientos importantes se produjeron miles de cambios generacionales. El programa se ejecutó en varios subprocesos en un Core i7. Los cálculos tardaron unos 15 minutos.

  1. Cuando el "líder" de la IA cometió un error aleatorio y no obtuvo suficientes puntos, la población comenzó a degradarse, porque La descendencia se formó a partir de padres "secundarios".
  2. Sucedió que en una corriente con forasteros que estaban marcando el tiempo, se produjo una mutación exitosa que proporcionó un aumento explosivo en los puntos ganados. Después de lo cual esta corriente se convirtió en líder.
  3. A veces no se producían mutaciones exitosas durante mucho tiempo, e incluso 500 mil generaciones no fueron suficientes para completar la selección.

Conclusión

Finalmente hice lo mismo con el juego del tres en raya. El tamaño del genoma utilizado fue el mismo que en el primer caso. El número de pasos se ha incrementado a 1024 y el tamaño de la población a 64 (para un cálculo más rápido). El cálculo tomó un poco más de tiempo. Todo sucedió aproximadamente según el mismo escenario.

Al principio, la IA jugó contra un “aleatorizador”. Así llamé al robot que camina al azar. Muy rápidamente, la IA comenzó a vencerlo, completando una línea. A continuación, complicé la tarea añadiendo un poco de inteligencia al aleatorizador: ocupar la línea si era posible, o defender. Sin embargo, también en este caso la IA encontró las debilidades del bot y comenzó a vencerlo. Quizás una historia sobre esto sea un tema para un artículo aparte.

Mi hijo me pidió que escribiera un programa para que las IA jugaran entre ellas y no con un bot. Había ideas para hacer lo mismo con el juego de damas o Go, sin embargo, ya no tenía tiempo suficiente para esto.

El único método que he utilizado para obtener nuevos individuos es la mutación. También puedes utilizar cruce e inversión. Quizás estos métodos aceleren la obtención del resultado deseado.

Al final, nació una idea: darle a la IA la capacidad de administrar todos los procesos en una PC y competir por los recursos de la computadora. Conecte su PC a Internet y utilice un conjunto de antiguas granjas de Bitcoin como potencia informática...

Como dijo el blogger mientras realizaba un experimento similar.

Inteligencia artificial: frío, insensible e intangible. Pero aquí es donde está el futuro; es esta área de la ciencia la que permitirá dar un gran y significativo paso hacia la automatización de procesos y, en consecuencia, eliminar parte de la carga rutinaria de valiosos especialistas. Y ahora, en los albores de su desarrollo, sólo nosotros decidimos cuál será. inteligencia artificial después de un par de décadas, enseñándole.

Intentemos descubrir qué existe. Métodos y algoritmos de aprendizaje automático de inteligencia artificial..

Tradicionalmente, surge mucha controversia en torno a lo nuevo y lo desconocido. Y aunque ya se ha escrito mucho sobre la IA, la gente no la comprende del todo. Aquí surgen afirmaciones como: “¡Le quitará cientos de puestos de trabajo a la gente!”, “¡Se rebelará contra el pueblo!”, “¡Sí, estamos cavando nuestra propia tumba!”, “Tarde o temprano no seremos capaz de controlarlo! etcétera. Mucha gente imagina la IA como una superinteligencia que, dado que desafía su propia explicación, ciertamente representa una amenaza para ellos. Y, por supuesto, nadie quiere escuchar que ahora, ir más allá de los límites del programa prescrito por una persona, en este momento es técnicamente imposible.

Pero, ¿qué es posible enseñarle todavía y cómo sucede?

Métodos de aprendizaje automático de inteligencia artificial:

  1. Aprendizaje inductivo

Obtener datos empíricos, identificar patrones, identificar algoritmos de acción en cada situación similar;

  1. Aprendizaje deductivo

Formalización de datos obtenidos por una persona de diversas formas e ingreso directamente a la base de datos;

Algoritmos básicos de toma de decisiones para inteligencia artificial:

Clasificador ingenuo de Bayes

Uno de los métodos de clasificación más simples.

Este método se utiliza en tecnología de escaneo y reconocimiento facial/retina/huellas dactilares, para dividir el contenido de las noticias por tema, así como para dividir las letras de su correo electrónico en categorías (específicamente, el departamento de spam);

El método de conjunto puede denominarse de manera muy aproximada un derivado del ingenuo clasificador Bayes descrito anteriormente, ya que se basa en el promedio bayesiano. En otras palabras, este método identifica la intersección de las probabilidades de resultado, promedia este valor, elimina la dispersión de valores y al mismo tiempo controla la búsqueda de una solución al problema dentro de las condiciones dadas.

Es el método de conjunto el que puede permitir encontrar la solución óptima al problema, en la que se gastarán menos recursos y el resultado satisfará al máximo las condiciones del problema.

Sin entrar en la esencia del método en sí y la explicación de cómo construir un hiperplano y trabajar con él, SVM puede describirse como algoritmos para clasificación y análisis de regresión.

Se utiliza una tecnología similar para reconocer ciertas propiedades de un objeto a partir de una fotografía (color de cabello, género, color de ropa), así como en genética, en el empalme del ADN (separación de secuencias de nucleótidos específicas del ARN y su conexión durante el procesamiento del ARN).

Árbol de decisión

El método (modelo) de toma de decisiones utilizado diariamente por cada uno de nosotros. Por eso ya se volvió meme

Pero bromas aparte, un modelo de este tipo suele contener elementos tales como: un problema, métodos de solución, las consecuencias de cada método, la probabilidad de que ocurran consecuencias, costos de recursos y el resultado final. La mayoría de las tecnologías más simples que utilizan IA funcionan sobre la base de este modelo.

Regresión lógica

Un método que puede acercarnos a una poderosa inteligencia artificial, capaz de tomar decisiones independientes en algunas situaciones. La regresión lógica es un método para predecir la ocurrencia de un evento dadas varias variables.


Se utiliza un algoritmo similar en meteorología y sismología, préstamos, marketing y otras áreas.

Me gustaría destacar este método por separado, ya que en esencia no es una forma de resolver el problema en sí, sino más bien una forma de determinar los errores de cada solución.

Los algoritmos descritos anteriormente se utilizan para el método de aprendizaje supervisado, es decir, aquel en el que se puede asignar una etiqueta (propiedad) específica a un conjunto de datos específico, pero si esta etiqueta no está disponible, se debe predecir su asignación en otras situaciones similares. .

Lo solucionamos algoritmos básicos de aprendizaje automático de inteligencia artificial más utilizado en la práctica. Vale la pena considerar que el uso aplicado de la IA en la vida cotidiana y en la resolución de problemas cotidianos, en los que la mayoría de las veces la solución al problema es absolutamente clara y sólo es necesario automatizar este proceso, puede implicar el uso de algoritmos similares. Un problema cuya solución debe ser un desarrollo innovador, o la solución dependerá de una gran cantidad de variables (es decir, principalmente varias áreas de las ciencias exactas), requiere algoritmos de solución más complejos, que puede conocer si sigue nuestras novedades.

Inteligencia artificial (IA)(Inglés) Inteligencia artificial, IA) es la ciencia y el desarrollo de máquinas y sistemas inteligentes, especialmente programas informáticos inteligentes, destinados a comprender la inteligencia humana. Sin embargo, los métodos utilizados no son necesariamente biológicamente plausibles. Pero el problema es que no se sabe qué procedimientos computacionales queremos llamar inteligentes. Y dado que entendemos solo algunos de los mecanismos de la inteligencia, entonces por inteligencia dentro de esta ciencia entendemos solo la parte computacional de la capacidad de lograr metas en el mundo.

Diferentes tipos y existen grados de inteligencia en muchas personas, animales y algunas máquinas, sistemas de información inteligentes y varios modelos de sistemas expertos con diferentes bases de conocimiento. Al mismo tiempo, como vemos, esta definición de inteligencia no está relacionada con la comprensión de la inteligencia humana; son cosas diferentes. Además, esta ciencia modela la inteligencia humana, ya que, por un lado, se puede aprender algo sobre cómo hacer que las máquinas resuelvan problemas observando a otras personas y, por otro lado, la mayor parte del trabajo en IA estudia los problemas que la humanidad necesita resolver. en sentido industrial y tecnológico. Por lo tanto, los investigadores de IA son libres de utilizar técnicas que no se observan en humanos si es necesario para resolver problemas específicos.

Es en este sentido que el término fue introducido por J. McCarthy en 1956 en una conferencia en la Universidad de Dartmouth, y hasta ahora, a pesar de las críticas de quienes creen que la inteligencia es sólo un fenómeno biológico, en la comunidad científica el término ha conservado su significado original, a pesar de las obvias contradicciones desde el punto de vista de la inteligencia humana.

En filosofía, la cuestión de la naturaleza y el estatus del intelecto humano no ha sido resuelta. Tampoco existe un criterio exacto para que las computadoras alcancen “inteligencia”, aunque en los albores de la inteligencia artificial se propusieron varias hipótesis, por ejemplo, la prueba de Turing o la hipótesis de Newell-Simon. Por lo tanto, a pesar de los numerosos enfoques tanto para comprender los problemas de la IA como para crear sistemas de información inteligentes, se pueden distinguir dos enfoques principales para el desarrollo de la IA:

· descendente (inglés) IA de arriba hacia abajo), semiótica – la creación de sistemas expertos, bases de conocimiento y sistemas de inferencia lógica que simulan procesos mentales de alto nivel: pensamiento, razonamiento, habla, emociones, creatividad, etc.;

· ascendente IA ascendente), biológico: el estudio de redes neuronales y cálculos evolutivos que modelan el comportamiento inteligente basándose en elementos "no inteligentes" más pequeños.

Este último enfoque, estrictamente hablando, no se refiere a la ciencia de la inteligencia artificial en el sentido dado por J. McCarthy, sólo los une un objetivo final común;

La historia de la inteligencia artificial como nueva dirección científica comienza a mediados del siglo XX. En ese momento, ya se habían formado muchos requisitos previos para su origen: entre los filósofos había habido durante mucho tiempo debates sobre la naturaleza del hombre y el proceso de comprensión del mundo, los neurofisiólogos y psicólogos habían desarrollado una serie de teorías sobre el trabajo del cerebro humano. y pensando, los economistas y matemáticos hicieron preguntas sobre cálculos óptimos y la presentación del conocimiento sobre el mundo en forma formalizada; Finalmente, nació la base de la teoría matemática del cálculo, la teoría de los algoritmos, y se crearon las primeras computadoras.

Las capacidades de las nuevas máquinas en términos de velocidad de computación resultaron ser mayores que las humanas, por lo que la comunidad científica planteó la pregunta: ¿cuáles son los límites de las capacidades de las computadoras y si las máquinas alcanzarán el nivel de desarrollo humano? En 1950, uno de los pioneros en el campo de la informática, el científico inglés Alan Turing, en el artículo “¿Puede pensar una máquina?”, da respuestas a preguntas similares y describe un procedimiento mediante el cual será posible determinar el momento en que una máquina se vuelve igual en términos de inteligencia a una persona, lo que se llama prueba de Turing.

La prueba de Turing es una prueba empírica propuesta por Alan Turing en su artículo de 1950 "Computing Machines and Minds" en la revista de filosofía. Mente" El objetivo de esta prueba es determinar la posibilidad de un pensamiento artificial cercano al humano. La interpretación estándar de esta prueba es: “Una persona interactúa con una computadora y una persona. A partir de las respuestas a las preguntas, debe determinar con quién está hablando: una persona o un programa de computadora. El propósito de un programa de computadora es engañar a una persona para que tome la decisión equivocada”. Todos los participantes de la prueba no pueden verse entre sí.

Hay tres enfoques para definir la inteligencia artificial:

1) Enfoque lógico hacia la creación de sistemas de inteligencia artificial tiene como objetivo la creación de sistemas expertos con modelos lógicos de bases de conocimiento utilizando el lenguaje de predicados. El sistema de programación lógica y de lenguaje Prolog fue adoptado como modelo educativo para sistemas de inteligencia artificial en los años 80. Las bases de conocimiento escritas en el lenguaje Prolog representan conjuntos de hechos y reglas de inferencia lógica escritas en el lenguaje lógico. El modelo lógico de bases de conocimiento le permite registrar no solo información y datos específicos en forma de hechos en el lenguaje Prolog, sino también información generalizada utilizando reglas y procedimientos de inferencia lógica, incluidas reglas lógicas para definir conceptos que expresan ciertos conocimientos como específicos. e información generalizada. En general, la investigación sobre los problemas de la inteligencia artificial en informática en el marco de un enfoque lógico para el diseño de bases de conocimiento y sistemas expertos tiene como objetivo la creación, desarrollo y operación de sistemas de información inteligentes, incluidas las cuestiones de la enseñanza a los estudiantes y escolares, así como la formación de usuarios y desarrolladores de este tipo de sistemas de información inteligentes.

2) Enfoque basado en agentes viene desarrollándose desde principios de los años 1990. Según este enfoque, la inteligencia es la parte computacional (planificación) de la capacidad de alcanzar los objetivos fijados para una máquina inteligente. Una máquina de este tipo será en sí misma un agente inteligente, que percibirá el mundo que la rodea mediante sensores y será capaz de influir en los objetos del entorno mediante actuadores. Este enfoque se centra en aquellos métodos y algoritmos que ayudarán al agente inteligente a sobrevivir en el entorno mientras realiza su tarea. Por tanto, aquí se estudian mucho más los algoritmos de búsqueda y toma de decisiones.

3) Enfoque intuitivo Se supone que la IA podrá exhibir un comportamiento no diferente al de los humanos, y en situaciones normales. Esta idea es una generalización del enfoque de la prueba de Turing, que establece que una máquina se volverá inteligente cuando sea capaz de mantener una conversación con una persona común y corriente, y esta no podrá entender que está hablando con la máquina (el la conversación se realiza por correspondencia).

La definición seleccionó las siguientes áreas de investigación en el campo de la IA:

- Modelado simbólico de procesos de pensamiento.

Al analizar la historia de la IA, podemos identificar un área tan amplia como la del modelado del razonamiento. Durante muchos años, el desarrollo de la IA como ciencia ha avanzado precisamente por este camino, y ahora es una de las áreas más desarrolladas de la IA moderna. Modelar el razonamiento implica la creación de sistemas simbólicos, cuya entrada es un problema determinado y la salida requiere su solución. Como regla general, el problema propuesto ya ha sido formalizado, es decir, traducido a forma matemática, pero no tiene un algoritmo de solución o es demasiado complejo, requiere mucho tiempo, etc. Esta área incluye: demostración de teoremas, decisión Creación y teoría de juegos, planificación y despacho, previsión.

- Trabajar con lenguajes naturales.

Un área importante es el procesamiento del lenguaje natural, que implica analizar las capacidades de comprensión, procesamiento y generación de textos en lenguaje "humano". En particular, el problema de la traducción automática de textos de un idioma a otro aún no se ha resuelto. EN mundo moderno El desarrollo de métodos de recuperación de información juega un papel importante. Por su naturaleza, la prueba de Turing original está relacionada con esta dirección.

- Acumulación y utilización del conocimiento.

Según muchos científicos, una propiedad importante de la inteligencia es la capacidad de aprender. Así, pasa a primer plano la ingeniería del conocimiento, que combina las tareas de obtención de conocimiento a partir de información simple, su sistematización y utilización. Los avances en esta área afectan a casi todas las demás áreas de la investigación de la IA. Tampoco en este caso pueden pasarse por alto dos subáreas importantes. El primero de ellos, el aprendizaje automático, se refiere al proceso de adquisición independiente de conocimientos por parte de un sistema inteligente durante su funcionamiento. El segundo está relacionado con la creación de sistemas expertos, programas que utilizan bases de conocimiento especializadas para obtener conclusiones fiables sobre cualquier problema.

El campo del aprendizaje automático incluye una gran clase de problemas de reconocimiento de patrones. Por ejemplo, se trata de reconocimiento de caracteres, texto escrito a mano, voz, análisis de texto. Muchos problemas se resuelven con éxito mediante modelos biológicos. Modelado biológico

Hay grandes e interesantes logros en el campo del modelado de sistemas biológicos. Estrictamente hablando, esto puede incluir varias direcciones independientes. Las redes neuronales se utilizan para resolver problemas complejos y confusos, como el reconocimiento de formas geométricas o la agrupación de objetos. El enfoque genético se basa en la idea de que un algoritmo puede volverse más eficiente si toma prestadas mejores características de otros algoritmos (“padres”). Un enfoque relativamente nuevo, donde la tarea es crear un programa autónomo, un agente que interactúa con el entorno externo, se denomina enfoque de agente. Merece especial mención la visión por ordenador, que también está asociada a la robótica.

- Robótica.

En general, la robótica y la inteligencia artificial suelen estar asociadas entre sí. La integración de estas dos ciencias, la creación de robots inteligentes, puede considerarse otra área de la IA.

- Creatividad de las máquinas.

La naturaleza de la creatividad humana está incluso menos estudiada que la naturaleza de la inteligencia. Sin embargo, esta área existe y aquí se plantean los problemas de escribir música por computadora, obras literarias (a menudo poesía o cuentos de hadas) y creatividad artística. La creación de imágenes realistas se utiliza ampliamente en las industrias del cine y los juegos. Agregar esta característica a cualquier sistema inteligente le permite demostrar muy claramente qué percibe exactamente el sistema y cómo lo entiende. Al agregar ruido en lugar de perder información o filtrar el ruido con el conocimiento disponible en el sistema, el conocimiento abstracto se produce en imágenes concretas que una persona puede percibir fácilmente, esto es especialmente útil para el conocimiento intuitivo y de bajo valor, cuya verificación en un La forma formal requiere un esfuerzo mental significativo.

- Otras áreas de investigación.

Existen muchas aplicaciones de la inteligencia artificial, cada una de las cuales forma una dirección casi independiente. Los ejemplos incluyen inteligencia de programación en juegos de computadora, control no lineal, sistemas inteligentes de seguridad de la información.

Enfoques para la creación de sistemas inteligentes. El enfoque simbólico permite operar con representaciones débilmente formalizadas y sus significados. La eficiencia y la eficacia general dependen de la capacidad de resaltar sólo la información esencial. La amplitud de clases de problemas resueltos eficazmente por la mente humana requiere una flexibilidad increíble en los métodos de abstracción. No es accesible ningún enfoque de ingeniería que el investigador elija inicialmente basándose en un criterio deliberadamente erróneo, por su capacidad de proporcionar rápidamente una solución eficaz a algún problema que le resulte más cercano a este investigador. Es decir, para un modelo único de abstracción y construcción de entidades ya implementado en forma de reglas. Esto resulta en un gasto significativo de recursos para tareas no centrales, es decir, el sistema vuelve de la inteligencia a la fuerza bruta en la mayoría de las tareas y la esencia misma de la inteligencia desaparece del proyecto.

Es especialmente difícil sin lógica simbólica cuando la tarea es desarrollar reglas, ya que sus componentes, al no ser unidades de conocimiento completas, no son lógicos. La mayoría de los estudios se detienen ante la imposibilidad de al menos identificar nuevas dificultades que han surgido utilizando los sistemas simbólicos elegidos en las etapas anteriores. Es más, solucionarlos, y sobre todo entrenar al ordenador para que los resuelva, o al menos identificar y salir de dichas situaciones.

Históricamente, el enfoque simbólico fue el primero en la era de las máquinas digitales, ya que fue después de la creación de Lisp, el primer lenguaje informático simbólico, cuando su autor confió en la posibilidad de comenzar a implementar prácticamente estos medios de inteligencia. Inteligencia como tal, sin reservas ni convenciones.

La creación de sistemas inteligentes híbridos en los que se utilizan varios modelos a la vez es una práctica muy extendida. Las redes neuronales pueden generar reglas de inferencia expertas y las reglas generativas se obtienen mediante el aprendizaje estadístico.

Desarrollo de la teoría de conjuntos difusos. El desarrollo de la teoría de conjuntos difusos comenzó con el artículo “Conjuntos difusos”, publicado por el profesor estadounidense Lotfi Zadeh, quien introdujo por primera vez el concepto de conjunto difuso, propuso la idea y el primer concepto de una teoría que permitía describir sistemas reales. La dirección más importante de la teoría de conjuntos difusos es la lógica difusa, utilizada para controlar sistemas, así como en experimentos sobre la formación de sus modelos.

Los años 60 iniciaron un período de rápido desarrollo de las computadoras y las tecnologías digitales basadas en la lógica binaria. En ese momento se creía que el uso de esta lógica permitiría resolver muchos problemas científicos y técnicos. Por esta razón, el surgimiento de la lógica difusa pasó casi desapercibido, a pesar de todo su carácter conceptual revolucionario. Sin embargo, la importancia de la lógica difusa ha sido reconocida por varios representantes de la comunidad científica y se ha desarrollado y se ha implementado en diversas aplicaciones industriales. Después de un tiempo, el interés por él comenzó a aumentar por parte de las escuelas científicas que unían a los partidarios de las tecnologías basadas en la lógica binaria. Esto se debió al hecho de que se descubrieron muchos problemas prácticos que no podían resolverse utilizando modelos y métodos matemáticos tradicionales, a pesar de las velocidades computacionales disponibles significativamente mayores. Se necesitaba una nueva metodología cuyos rasgos característicos se encontraran en la lógica difusa.

Al igual que la robótica, la lógica difusa despertó gran interés no en su país de origen, los Estados Unidos, sino más allá de sus fronteras y, como consecuencia, la primera experiencia de uso industrial de la lógica difusa - para controlar instalaciones de calderas de centrales eléctricas - es asociado con Europa. Todos los intentos de utilizar métodos tradicionales, a veces muy complejos, para controlar una caldera de vapor terminaron en fracaso: este sistema no lineal resultó ser muy complejo. Y sólo el uso de la lógica difusa permitió sintetizar un controlador que cumpliera todos los requisitos. En 1976, la lógica difusa se utilizó como base para un sistema de control automático para un horno rotatorio en la producción de cemento. Sin embargo, los primeros resultados prácticos del uso de la lógica difusa, obtenidos en Europa y América, no provocaron un aumento significativo del interés en ella. Al igual que con la robótica, el país que fue el primero en iniciar la implementación generalizada de la lógica difusa, consciente de su enorme potencial, fue Japón.

Entre los sistemas difusos aplicados creados en Japón, el más famoso es el sistema de control del metro desarrollado por Hitachi en Sendai. El proyecto se implementó con la participación de un conductor experimentado, cuyo conocimiento y experiencia formaron la base para el modelo de control desarrollado. El sistema redujo automáticamente la velocidad del tren a medida que se acercaba a la estación, asegurando una parada en el lugar requerido. Otra ventaja del tren fue su gran comodidad, debido a la suave aceleración y desaceleración. Había otras ventajas en comparación con los sistemas de control tradicionales.

El rápido desarrollo de la lógica difusa en Japón ha llevado a sus aplicaciones prácticas no sólo en la industria, sino también en la producción de bienes de consumo. Un ejemplo de ello es una cámara de vídeo equipada con un subsistema de estabilización de imagen borrosa, que se utilizaba para compensar las fluctuaciones de la imagen causadas por la inexperiencia del operador. Este problema era demasiado complejo para resolverlo con métodos tradicionales, ya que era necesario distinguir las fluctuaciones aleatorias en la imagen del movimiento intencionado de los objetos fotografiados (por ejemplo, el movimiento de personas).

Otro ejemplo es la lavadora automática, que funciona con solo tocar un botón (Zimmerman 1994). Esta “integridad” despertó interés y fue recibida con aprobación. El uso de métodos de lógica difusa permitió optimizar el proceso de lavado, proporcionando un reconocimiento automático del tipo, volumen y grado de suciedad de la ropa, sin mencionar el hecho de que reducir el mecanismo de control de la máquina a un solo botón hizo que fuera mucho más fácil manejar.

Las empresas japonesas han implementado invenciones de lógica difusa en muchos otros dispositivos, incluidos hornos microondas (Sanyo), sistemas de frenos antibloqueo y transmisiones automáticas (Nissan), control integrado de la dinámica del vehículo (INVEC) y controladores de disco duro en las computadoras. reducción del tiempo de acceso a la información.

Además de las aplicaciones mencionadas anteriormente, desde principios de los años 90. Existe un desarrollo intensivo de métodos difusos en una serie de áreas aplicadas, incluidas aquellas no relacionadas con la tecnología:

Sistema electrónico de control de marcapasos;

Sistema de control de vehículos de motor;

Sistemas de refrigeración;

Acondicionadores de aire y equipos de ventilación;

Equipos de incineración de residuos;

Horno de fusión de vidrio;

Sistema de control de la presión arterial;

Diagnóstico de tumores;

Diagnóstico del estado actual del sistema cardiovascular;

Sistema de control para grúas y puentes;

Procesamiento de imágenes;

Cargador rápido;

Reconocimiento de palabras;

Manejo de bioprocesadores;

Control de motores eléctricos;

Equipos de soldadura y procesos de soldadura;

Sistemas de control de tráfico;

Investigación biomédica;

Plantas de tratamiento de agua.

EN actualmente En la creación de inteligencia artificial (en el sentido original de la palabra, los sistemas expertos y los programas de ajedrez no pertenecen a esto) hay una molienda intensiva de todas las áreas temáticas que tienen al menos alguna relación con la IA en bases de conocimiento. Se han probado casi todos los enfoques, pero ningún grupo de investigación ha abordado el surgimiento de la inteligencia artificial.

La investigación en IA se ha unido a la corriente general de tecnologías de singularidad (salto de especies, desarrollo humano exponencial), como la informática, los sistemas expertos, la nanotecnología, la bioelectrónica molecular, la biología teórica, la(s) teoría(s) cuántica(s), los nootrópicos, los extrófilos, etc. ver flujo diario Noticias de Kurzweil, MIT.

Los resultados de los avances en el campo de la IA han llegado a la educación superior y secundaria en Rusia en forma de libros de texto de informática, donde ahora se estudian cuestiones de trabajo y creación de bases de conocimientos, sistemas expertos basados ​​en computadoras personales basados ​​en sistemas de programación lógica nacionales. así como estudiar cuestiones fundamentales de matemáticas e informática utilizando ejemplos de trabajo con modelos de bases de conocimiento y sistemas expertos en escuelas y universidades.

Se han desarrollado los siguientes sistemas de inteligencia artificial:

1. Deep Blue: derrotó al campeón mundial de ajedrez. (El encuentro entre Kasparov y las supercomputadoras no satisfizo ni a los informáticos ni a los ajedrecistas, y Kasparov no reconoció el sistema, aunque los programas de ajedrez compactos originales son un elemento integral de la creatividad ajedrecística. Luego apareció la línea de supercomputadoras de IBM en los proyectos de fuerza bruta BluGene (modelado molecular) y el modelado del sistema de células piramidales en el Swiss Blue Brain Center. Esta historia es un ejemplo de la relación intrincada y secreta entre la IA, las empresas y los objetivos estratégicos nacionales.

2. Mycin fue uno de los primeros sistemas expertos que podía diagnosticar un pequeño conjunto de enfermedades, a menudo con tanta precisión como los médicos.

3. 20q es un proyecto basado en ideas de IA, basado en el clásico juego “20 Preguntas”. Se hizo muy popular después de aparecer en Internet en el sitio web 20q.net.

4. Reconocimiento de voz. Sistemas como ViaVoice son capaces de atender a los consumidores.

5. Los robots compiten en una forma simplificada de fútbol en el torneo anual RoboCup.

Los bancos utilizan sistemas de inteligencia artificial (IA) en las actividades de seguros (matemáticas actuariales), cuando operan en la bolsa de valores y en la gestión de propiedades. En agosto de 2001, los robots vencieron a los humanos en una competencia comercial improvisada (BBC News, 2001). Los métodos de reconocimiento de patrones (incluidas redes neuronales más complejas y especializadas) se utilizan ampliamente en el reconocimiento óptico y acústico (incluidos texto y voz), diagnósticos médicos, filtros de spam, en sistemas de defensa aérea (identificación de objetivos) y también para garantizar una serie de de otras tareas de seguridad nacional.

Los desarrolladores de juegos de ordenador se ven obligados a utilizar IA con distintos grados de sofisticación. Las tareas estándar de la IA en los juegos son encontrar un camino en el espacio bidimensional o tridimensional, simular el comportamiento de una unidad de combate, calcular la estrategia económica correcta, etc.

La inteligencia artificial está estrechamente relacionada con el transhumanismo. Y junto con la neurofisiología, la epistemología y la psicología cognitiva, forma una ciencia más general llamada ciencia cognitiva. La filosofía juega un papel especial en la inteligencia artificial. Además, la epistemología, la ciencia del conocimiento en el marco de la filosofía, está estrechamente relacionada con los problemas de la inteligencia artificial. Los filósofos que trabajan en este tema se enfrentan a preguntas similares a las que enfrentan los ingenieros de IA sobre cómo representar y utilizar mejor el conocimiento y la información. Producir conocimiento a partir de datos es uno de los problemas básicos de la minería de datos. Existen varios enfoques para resolver este problema, incluidos aquellos basados ​​en tecnología de redes neuronales, utilizando procedimientos de verbalización de redes neuronales.

En informática, los problemas de la inteligencia artificial se consideran desde la perspectiva del diseño de sistemas expertos y bases de conocimiento. Las bases de conocimiento se entienden como un conjunto de datos y reglas de inferencia que permiten la inferencia lógica y el procesamiento significativo de la información. En general, la investigación sobre los problemas de la inteligencia artificial en informática tiene como objetivo la creación, desarrollo y operación de sistemas de información inteligentes, incluidas cuestiones de capacitación de usuarios y desarrolladores de dichos sistemas.

La ciencia de “crear inteligencia artificial” no pudo evitar atraer la atención de los filósofos. Con la aparición de los primeros sistemas inteligentes surgieron cuestiones fundamentales sobre el hombre y el conocimiento y, en parte, sobre el orden mundial. Por un lado, están indisolublemente ligados a esta ciencia y, por otro, le introducen cierto caos. Los problemas filosóficos de la creación de inteligencia artificial se pueden dividir en dos grupos, relativamente hablando, "antes y después del desarrollo de la IA". El primer grupo responde a la pregunta: "¿Qué es la IA? ¿Es posible crearla y, si es posible, cómo hacerlo?". El segundo grupo (ética de la inteligencia artificial) plantea la pregunta: "¿Cuáles son las consecuencias de la creación de IA para la humanidad?"

Cuestiones de crear inteligencia artificial. Son visibles dos direcciones para el desarrollo de la IA: la primera, en la solución de los problemas asociados con la aproximación de los sistemas especializados de IA a las capacidades humanas y su integración, que es realizada por la naturaleza humana, la segunda, en la creación de la Inteligencia Artificial, que representa la integración de sistemas de IA ya creados en un solo sistema capaz de resolver los problemas de la humanidad.

Entre los investigadores de la IA todavía no existe un punto de vista dominante sobre los criterios de inteligencia, la sistematización de objetivos y tareas a resolver, ni siquiera existe una definición estricta de ciencia. Existen diferentes puntos de vista sobre la cuestión de qué se considera inteligencia. El enfoque analítico implica el análisis de la actividad nerviosa superior de una persona al nivel más bajo e indivisible (la función de la actividad nerviosa superior, una reacción elemental a los irritantes (estímulos) externos, la irritación de las sinapsis de un conjunto de neuronas conectadas por función) y la posterior reproducción de estas funciones.

Algunos expertos confunden la capacidad de elección racional y motivada en condiciones de falta de información con inteligencia. Es decir, se considera simplemente un programa intelectual como aquel programa de actividad que puede elegir entre un determinado conjunto de alternativas, por ejemplo, adónde ir en el caso de “irás a la izquierda…”, “irás a la derecha”. ...”, “irás derecho...”.

El debate más acalorado en la filosofía de la inteligencia artificial es la cuestión de la posibilidad de pensar creada por la mano humana. La pregunta "¿Puede pensar una máquina?", que impulsó a los investigadores a crear la ciencia de simular la mente humana, fue planteada por Alan Turing en 1950. Los dos puntos de vista principales sobre este tema se denominan hipótesis de inteligencia artificial fuerte y débil.

El término “inteligencia artificial fuerte” fue introducido por John Searle, y en sus palabras el enfoque se caracteriza: “Tal programa no será simplemente un modelo de la mente; ella, en el sentido literal de la palabra, ella misma será la mente, en el mismo sentido en que la mente humana es la mente”. Por el contrario, los defensores de una IA débil prefieren ver los programas sólo como herramientas que les permiten resolver ciertos problemas que no requieren toda la gama de capacidades cognitivas humanas.

El experimento mental "La habitación china" de John Searle sostiene que pasar la prueba de Turing no es un criterio para que una máquina tenga un proceso de pensamiento genuino. El pensamiento es el proceso de procesar la información almacenada en la memoria: análisis, síntesis y autoprogramación. Roger Penrose adopta una posición similar, quien en su libro “La nueva mente del rey” defiende la imposibilidad de obtener el proceso de pensamiento sobre la base de sistemas formales.


6. Dispositivos informáticos y microprocesadores.

Un microprocesador (MP) es un dispositivo que recibe, procesa y genera información. Estructuralmente, el MP contiene uno o más circuitos integrados y realiza acciones definidas por un programa almacenado en la memoria (Fig. 6.1).

Figura 6.1– apariencia de diputado

Los primeros procesadores se crearon como componentes únicos para sistemas informáticos únicos. Más tarde, los fabricantes de computadoras pasaron del costoso método de desarrollar procesadores diseñados para ejecutar uno o varios programas altamente especializados a la producción en masa de clases típicas de dispositivos procesadores multipropósito. La tendencia hacia la estandarización de los componentes informáticos surgió durante la era del rápido desarrollo de elementos semiconductores, mainframes y minicomputadoras, y con la llegada de los circuitos integrados se hizo aún más popular. La creación de microcircuitos hizo posible aumentar aún más la complejidad de las CPU y al mismo tiempo reducir su tamaño físico.

La estandarización y miniaturización de los procesadores ha llevado a una profunda penetración de los dispositivos digitales basados ​​​​en ellos en la vida humana cotidiana. Los procesadores modernos se pueden encontrar no sólo en dispositivos de alta tecnología como computadoras, sino también en automóviles, calculadoras, teléfonos móviles e incluso juguetes para niños. La mayoría de las veces están representados por microcontroladores, donde, además del dispositivo informático, en el chip se encuentran componentes adicionales (memoria de programas y datos, interfaces, puertos de entrada/salida, temporizadores, etc.). Las capacidades informáticas del microcontrolador son comparables a las de los procesadores de las computadoras personales de hace diez años y, en la mayoría de los casos, incluso superan significativamente su rendimiento.

Un sistema microprocesador (MPS) es un sistema informático, de instrumentación o de control en el que el principal dispositivo de procesamiento de información es el MP. El sistema de microprocesador se construye a partir de un conjunto de LSI de microprocesador (Fig. 6.2).

Figura 6.2– Ejemplo de un sistema de microprocesador

El generador de impulsos de reloj establece un intervalo de tiempo, que es una unidad de medida (cuántica) durante la ejecución del comando. Cuanto mayor sea la frecuencia, más rápido, en igualdad de condiciones, el MPS. MP, RAM y ROM son partes integrales del sistema. Interfaces de entrada y salida: dispositivos para interconectar MPS con bloques de entrada y salida. Los instrumentos de medida se caracterizan por dispositivos de entrada en forma de mando a distancia con pulsador y convertidores de medida (ADC, sensores, unidades de entrada de información digital). Los dispositivos de salida suelen ser pantallas digitales, una pantalla gráfica (display) y dispositivos externos para la interfaz con el sistema de medición. Todos los bloques MPS están interconectados por buses de transmisión de información digital. El MPS utiliza el principio de comunicación troncal, en el que los bloques intercambian información a través de un único bus de datos. El número de líneas en el bus de datos normalmente corresponde a la capacidad MPS (el número de bits en una palabra de datos). El bus de direcciones se utiliza para indicar la dirección de la transferencia de datos: transmite la dirección de una celda de memoria o bloque de E/S que actualmente está recibiendo o transmitiendo información. El bus de control se utiliza para transmitir señales sincronizando todo el funcionamiento del MPS.

La construcción del IPS se basa en tres principios:

Línea principal;

Modularidad;

Control de microprogramas.

El principio de enlace troncal determina la naturaleza de las conexiones entre los bloques funcionales del MPS: todos los bloques están conectados a un único bus del sistema.

El principio de modularidad es que el sistema se construye sobre la base de un número limitado de tipos de módulos estructural y funcionalmente completos.

Los principios de troncalización y modularidad permiten aumentar las capacidades de control y computación del MP conectando otros módulos al bus del sistema.

El principio del control de microprogramas es la capacidad de realizar operaciones elementales: microcomandos (cambios, transferencias de información, operaciones lógicas), con la ayuda de las cuales se crea un lenguaje tecnológico, es decir, un conjunto de comandos que mejor se adapta al propósito del sistema.

Según su finalidad, los parlamentarios se dividen en universales y especializados.

Los microprocesadores universales son microprocesadores de uso general que resuelven una amplia clase de problemas de computación, procesamiento y control. Un ejemplo del uso de MP universales son las computadoras construidas en plataformas IBM y Macintosh.

Los microprocesadores especializados están diseñados para resolver problemas de una determinada clase únicamente. Los MP especializados incluyen: señalización, MP multimedia y transputadores.

Los procesadores de señales (DSP) están diseñados para el procesamiento de señales digitales en tiempo real (por ejemplo, filtrado de señales, cálculo de convolución, cálculo de funciones de correlación, limitación y acondicionamiento de señales, realización de transformadas de Fourier directa e inversa). (Figura 6.3) Los procesadores de señal incluyen procesadores de Texas Instruments - TMS320C80, Analog Devices - - ADSP2106x, Motorola -DSP560xx y DSP9600x.

Figura 6.3– Ejemplo de estructura DSP interna

Los procesadores multimedia y multimedia están diseñados para procesar señales de audio, información gráfica, imágenes de video, así como para resolver una serie de problemas en computadoras multimedia, consolas de juegos y electrodomésticos. Estos procesadores incluyen procesadores de MicroUnity - Mediaprocessor, Philips - Trimedia, Cromatic Research - Mpact Media Engine, Nvidia - NV1, Cyrix - MediaGX.

Los transputers están diseñados para organizar cálculos masivamente paralelos y trabajar en sistemas multiprocesador. Se caracterizan por la presencia de memoria interna y una interfaz entre procesadores incorporada, es decir, canales de comunicación con otros MP LSI.

Según el tipo de arquitectura o el principio de construcción se distingue entre MP con arquitectura de von Neumann y MP con arquitectura de Harvard.

El concepto de arquitectura de microprocesador define sus partes componentes, así como las conexiones e interacciones entre ellas.

La arquitectura incluye:

diagrama de bloques MP;

Modelo de software MP (descripción de funciones de registro);

Información sobre la organización de la memoria (capacidad y métodos de direccionamiento de la memoria);

Descripción de la organización de los procedimientos de entrada/salida.

La arquitectura Fonneumann (Fig. 6.4, a) fue propuesta en 1945 por el matemático estadounidense Joe von Neumann. Su peculiaridad es que el programa y los datos se encuentran en la memoria compartida, a la que se accede a través de un bus de datos y comandos.

La arquitectura de Harvard se implementó por primera vez en 1944 en la computadora de retransmisión de la Universidad de Harvard (EE. UU.). Una característica de esta arquitectura es que la memoria de datos y la memoria de programa están separadas y tienen buses de datos y buses de comando separados (Fig. 6.4, b), lo que permite aumentar el rendimiento del sistema MP.

Figura 6.4. Principales tipos de arquitectura: (a - von Neumann; 6 - Harvard)

Según el tipo de sistema de instrucción, se hace una distinción entre procesadores CISC (Complete Instrucciones Set Computing) con un conjunto completo de instrucciones (los representantes típicos de CISC son la familia de microprocesadores Intel x86) y Procesadores RISC(Computación del conjunto de instrucciones reducido) con un conjunto reducido de instrucciones (caracterizado por la presencia de instrucciones de longitud fija, una gran cantidad de registros, operaciones de registro a registro y la ausencia de direccionamiento indirecto).

El microcontrolador de un solo chip (MCU) es un chip diseñado para controlar dispositivos electrónicos (Figura 5). Un microcontrolador típico combina las funciones de un procesador y dispositivos periféricos y puede contener RAM y ROM. Básicamente, es una computadora de un solo chip capaz de realizar tareas simples. El uso de un único chip en lugar de un conjunto completo reduce significativamente el tamaño, el consumo de energía y el coste de los dispositivos basados ​​en microcontroladores.

Figura 6.5– ejemplos de diseños de microcontroladores

Los microcontroladores son la base para la construcción de sistemas integrados; se pueden encontrar en muchos dispositivos modernos, como teléfonos, lavadoras etc. La mayoría de los procesadores producidos en el mundo son microcontroladores.

Hoy en día, los microcontroladores de 8 bits compatibles con el i8051 de Intel, los microcontroladores PIC de Microchip Technology y AVR de Atmel, el MSP430 de dieciséis bits de TI, así como ARM, cuya arquitectura es desarrollada por ARM y vende licencias a otras empresas para su producción, son populares entre los desarrolladores.

Al diseñar microcontroladores, existe un equilibrio entre tamaño y coste, por un lado, y flexibilidad y rendimiento, por otro. Para diferentes aplicaciones, el equilibrio óptimo de estos y otros parámetros puede variar mucho. Por tanto, existe una gran cantidad de tipos de microcontroladores, que se diferencian en la arquitectura del módulo procesador, el tamaño y tipo de memoria integrada, el conjunto de dispositivos periféricos, el tipo de carcasa, etc.

Una lista parcial de periféricos que pueden estar presentes en los microcontroladores incluye:

Puertos digitales universales que se pueden configurar para entrada o salida;

Varias interfaces de E/S como UART, I²C, SPI, CAN, USB, IEEE 1394, Ethernet;

Convertidores analógico-digital y digital-analógico;

Comparadores;

Moduladores de ancho de pulso;

Temporizadores, generador de reloj incorporado y temporizador de vigilancia;

Controladores de motores sin escobillas;

Controladores de pantalla y teclado;

Receptores y transmisores de radiofrecuencia;

Matrices de memoria flash incorporada.

La inteligencia artificial es una tecnología que definitivamente llevaremos con nosotros al futuro.

Le diremos cómo funciona y qué usos interesantes hemos encontrado.

😎 La sección Tecnología se publica todas las semanas con el apoyo de re:Store.

¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) es la tecnología para crear programas y máquinas inteligentes que pueden resolver problemas creativos y generar nueva información basada en la información existente. De hecho, la inteligencia artificial está diseñada para simular la actividad humana, que se considera intelectual.

Tradicionalmente se creía que la creatividad era exclusiva del ser humano. Pero la creación de la inteligencia artificial ha cambiado el orden habitual de las cosas.

Un robot que simplemente corta madera mecánicamente no está equipado con IA. Un robot que ha aprendido a cortar leña por sí mismo, siguiendo el ejemplo de una persona o de un tronco y sus partes, y cada vez lo hace mejor, tiene IA.

Si un programa simplemente recupera valores de la base de datos según ciertas reglas, no está equipado con IA. Si el sistema, después del entrenamiento, crea programas, métodos y documentos, resolviendo ciertos problemas, tiene IA.

Cómo crear un sistema de inteligencia artificial

En un sentido global, necesitamos imitar el modelo del pensamiento humano. Pero en realidad es necesario crear una caja negra, un sistema que, en respuesta a un conjunto de valores de entrada, produzca valores de salida que serían similares a los resultados humanos. Y a nosotros, en general, no nos importa lo que suceda "en su cabeza" (entre entrada y salida).

Los sistemas de inteligencia artificial se crean para resolver una determinada clase de problemas.

La base de la inteligencia artificial es el aprendizaje, la imaginación, la percepción y la memoria.

Lo primero que hay que hacer para crear inteligencia artificial es desarrollar funciones que implementen la percepción de información para poder "alimentar" datos al sistema. Luego, las funciones que implementan la capacidad de aprender. Y un almacenamiento de datos para que el sistema pueda almacenar en algún lugar la información que recibe durante el proceso de aprendizaje.

Después de esto, se crean las funciones de la imaginación. Pueden simular situaciones utilizando datos existentes y agregar nueva información (datos y reglas) a la memoria.

El aprendizaje puede ser inductivo o deductivo. En la versión inductiva, el sistema recibe pares de datos de entrada y salida, preguntas y respuestas, etc. El sistema debe encontrar conexiones entre los datos y luego, utilizando estos patrones, encontrar los datos de salida a partir de los datos de entrada.

El enfoque deductivo (¡hola, Sherlock Holmes!) utiliza la experiencia de expertos. Se transfiere al sistema como base de conocimientos. No sólo hay conjuntos de datos, sino también reglas ya preparadas que ayudan a encontrar una solución a la condición.

Los sistemas modernos de inteligencia artificial utilizan ambos enfoques. Además, los sistemas normalmente ya están capacitados, pero continúan aprendiendo a medida que funcionan. Esto se hace para que el programa al principio demuestre un nivel de habilidad decente, pero en el futuro sea aún mejor. Por ejemplo, tuve en cuenta sus deseos y preferencias, cambios de situación, etc.

En un sistema de inteligencia artificial, incluso puedes establecer la probabilidad de imprevisibilidad. Esto lo hará más parecido a un humano.

Por qué la inteligencia artificial vence a los humanos

En primer lugar, porque tiene menor probabilidad de error.

  • La inteligencia artificial no puede olvidar: tiene memoria absoluta.
  • No puede ignorar accidentalmente factores y dependencias: cada acción de la IA tiene una justificación clara.
  • La IA no duda, sino que evalúa las probabilidades y se inclina por la mayor. Por tanto, puede justificar cada paso que da.
  • La IA tampoco tiene emociones. Esto significa que no influyen en la toma de decisiones.
  • La inteligencia artificial no se limita a evaluar los resultados del paso actual, sino que piensa en varios pasos por delante.
  • Y tiene suficientes recursos para considerar todos los escenarios posibles.

Usos interesantes de la inteligencia artificial

En términos generales, la inteligencia artificial puede hacerlo todo. Lo principal es formular correctamente el problema y proporcionarle los datos iniciales. Además, la IA puede sacar conclusiones inesperadas y buscar patrones donde parece que no los hay.

La respuesta a cualquier pregunta.

Un equipo de investigadores liderado por David Ferrucci ha desarrollado un superordenador llamado Watson con un sistema de respuesta a preguntas. El sistema, que lleva el nombre del primer presidente de IBM, Thomas Watson, puede comprender preguntas en lenguaje natural y buscar respuestas en una base de datos.

Watson integra 90 servidores IBM p750, cada uno con cuatro procesadores de arquitectura POWER7 de ocho núcleos. La cantidad total de RAM del sistema supera los 15 TB.

Los logros de Watson incluyen ganar "Jeopardy!" (Americano “Juego propio”). Derrotó a dos de los mejores jugadores: el ganador de mayores ganancias, Brad Rutter, y el poseedor del récord de la racha invicta más larga, Ken Jennings.

Premio Watson: 1 millón de dólares. Es cierto que sólo en 2014 se invirtieron mil millones de dólares.

Además, Watson participa en el diagnóstico del cáncer, ayuda a los especialistas financieros y se utiliza para analizar big data.

Reconocimiento facial

En el iPhone X el reconocimiento facial se desarrolla mediante redes neuronales, una versión de un sistema de inteligencia artificial. Los algoritmos de red neuronal se implementan en el nivel del procesador A11 Bionic, por lo que funciona eficazmente con tecnologías de aprendizaje automático.

Las redes neuronales realizan hasta 60 mil millones de operaciones por segundo. Esto es suficiente para analizar hasta 40 mil puntos clave en la cara y proporcionar una identificación extremadamente precisa del propietario en una fracción de segundo.

Incluso si te dejas crecer la barba o usas gafas, el iPhone X te reconocerá. Simplemente no tiene en cuenta el cabello ni los accesorios, sino que analiza el área de sien a sien y de cada sien hasta el hueco debajo del labio inferior.

El ahorro de energía

Y de nuevo Apple. El iPhone X tiene un sistema inteligente incorporado que monitorea la actividad de las aplicaciones instaladas y un sensor de movimiento para comprender tu rutina diaria.

Después de esto, el iPhone X, por ejemplo, te ofrecerá actualizar en el momento más conveniente. Captará el momento en que tenga una Internet estable, no una señal de salto de las torres de telefonía móvil y no esté realizando tareas urgentes o importantes.

La IA también distribuye tareas entre los núcleos del procesador. Por lo que proporciona suficiente energía en costos mínimos energía.

Creando pinturas

La creatividad, que antes sólo era accesible a los humanos, ahora está abierta a la IA. Así, el sistema, creado por investigadores de la Universidad Rutgers de Nueva Jersey y del laboratorio de IA de Los Ángeles, presentó su propio estilo artístico.

Y el sistema de inteligencia artificial de Microsoft puede hacer dibujos basándose en su descripción de texto. Por ejemplo, si le pides a la IA que dibuje un “pájaro amarillo con alas negras y pico corto”, se verá así:

Es posible que estas aves no existan en el mundo real; así es como las representa nuestra computadora.

Un ejemplo más extendido es la aplicación Prisma, que crea pinturas a partir de fotografías:

Escribiendo música


En agosto, la inteligencia artificial Amper compuso, produjo e interpretó la música para el álbum “I AM AI” (en inglés Soy inteligencia artificial) junto con la cantante Taryn Southern.

Amper fue desarrollado por un equipo de músicos profesionales y expertos en tecnología. Señalan que la IA está diseñada para ayudar a las personas a avanzar en el proceso creativo.

La IA puede escribir música en unos segundos

Amper creó de forma independiente las estructuras de acordes y los instrumentos de la pista "Break Free". La gente sólo ajustó ligeramente el estilo y el ritmo general.

Otro ejemplo es un álbum de música inspirado en “Defensa Civil”, cuya letra fue escrita por AI. El experimento fue realizado por los empleados de Yandex Ivan Yamshchikov y Alexey Tikhonov. El álbum 404 del grupo “Neural Defense” fue publicado en línea. Resultó en el espíritu de Letov:

Luego, los programadores fueron más allá e hicieron que la IA escribiera poesía en el espíritu de Kurt Cobain. El músico Rob Carroll escribió la música de las cuatro mejores letras y las pistas se combinaron en el álbum Neurona. Incluso grabaron un vídeo para una canción, aunque sin la participación de AI:

Creación de textos

Los escritores y periodistas también podrían ser reemplazados pronto por la IA. Por ejemplo, el sistema Dewey recibió libros de la biblioteca del Proyecto Gutenberg, luego agregó textos científicos de Google Scholar, clasificándolos por popularidad y títulos, así como por ventas en Amazon. Además, establecieron los criterios para escribir un nuevo libro.

El sitio pedía a la gente que tomara decisiones en situaciones difíciles: por ejemplo, los ponía en el lugar de un conductor que podía atropellar a tres adultos o dos niños. Por lo tanto, Moral Machine fue entrenada para tomar decisiones difíciles que violan la ley de la robótica de que un robot no puede dañar a una persona.

¿A qué conducirá la imitación de personas por parte de robots con IA? Los futuristas creen que algún día se convertirán en miembros de pleno derecho de la sociedad. Por ejemplo, el robot Sophia de la empresa de Hong Kong Hanson Robotics ya obtuvo la ciudadanía en Arabia Saudita (al mismo tiempo mujeres comunes y corrientes¡No existe tal derecho en el país!).

Cuando el columnista del New York Times, Andrew Ross, le preguntó a Sophia si los robots eran inteligentes y conscientes de sí mismos, ella respondió con una pregunta:

Déjame preguntarte en respuesta, ¿cómo sabes que eres humano?

Además, Sofía afirmó:

Quiero utilizar mi inteligencia artificial para ayudar a las personas a vivir una vida mejor, por ejemplo, diseñar hogares más inteligentes y construir las ciudades del futuro. Quiero ser un robot empático. Si me tratas bien, te trataré bien.

Y antes admitió que odia a la humanidad e incluso aceptó destruir a la gente...

Reemplazo de caras en videos

Los vídeos deepfakes comenzaron a difundirse masivamente por Internet. Los algoritmos de inteligencia artificial reemplazaron los rostros de los actores de películas para adultos por rostros de estrellas.

Funciona así: la red neuronal analiza fragmentos de rostros en el vídeo original. Luego las compara con fotos de Google y vídeos de YouTube, superpone los fragmentos necesarios y... tu actriz favorita acaba en una película que será mejor que no veas en el trabajo.

PornHub ya ha prohibido la publicación de este tipo de vídeos

Los deepfakes resultaron ser algo peligroso. Una actriz abstracta es una cosa, y un vídeo tuyo, de tu esposa, de tu hermana, de tu colega, que bien podría servir para chantajear, es otra.

Comercio de divisas

Un equipo de investigadores de la Universidad de Erlangen-Nuremberg en Alemania ha desarrollado una serie de algoritmos que utilizan datos históricos del mercado para replicar inversiones en tiempo real. Un modelo proporcionó un retorno de la inversión del 73% anual entre 1992 y 2015, lo que se compara con un retorno real del mercado del 9% anual.

Cuando el mercado se sacudió en 2000 y 2008, los rendimientos alcanzaron niveles récord del 545% y 681%, respectivamente.

En 2004, Goldman Sachs lanzó Kensho, la plataforma comercial impulsada por inteligencia artificial. En los mercados de criptomonedas también están apareciendo sistemas basados ​​en IA para el comercio en bolsas: Mirocana, etc. Son mejores que los traders reales, ya que carecen de emociones y se basan en análisis claros y reglas estrictas.

¿La IA nos reemplazará a usted y a mí?