Evolución de la IA

 

Fecha Autor Comentario
-300 Aristóteles de Estagira Crea los silogismos (Razonamiento deductivo). Un ejemplo:

  • Algunas serpientes son venenosas.
  • El veneno nos pueden matar

→ Por tanto: Algunas serpientes nos pueden matar

1.749 Georges Louis Leclerc Publica entre 1.749 y 1.789 una serie de volúmenes titulados “Histoire naturelle, générale et particulière, avec la description du Cabinet du Roy”, donde indica que “las especies se originaron entre sí”, suponiendo que el entorno influía directamente sobre los organismos vivos, que los humanos y los simios podían tener orígenes comunes y que incluso existía un ancestro comun entre estas dos especies. La teoría evolutiva estaba enunciada, adelantándose 100 años a Darwin.
1.791 Luigi Galvani Establece la relación entre la neurofisiología y los fenómenos eléctricos no biológicos, proponiendo la existencia de una “electricidad animal”, después de verificar el efecto que tenía una descarga eléctrica sobre los músculos de un animal muerto.
1.801-9 Jean Baptiste (Lamarck)

Publica su teoría evolutiva “Philosophie Zoologique”, libro que le sirve a Darwin para su “El origen de las especies” de 1.849. Por contra, el creacionismo decía que las especies estaban ordenadas por Dios y el hombre ocupaba la cuspide de la pirámide, cerca del creador.

Resumiendo, las especies sufren cambios adaptativos debido a la influencia del entorno y a lo largo de grandes periodos de tiempo. La ciencia comienza a deshacer “los cimientos de la humanidad” y la computación, a su tiempo, toma la idea de la evolución y comienza sus cambios con los trabajos de Alexander S. Fraser.

1.847 George Boole En 1.847 Publica Análisis matemático de la lógica y en 1.854 Investigación sobre las leyes del pensamiento, en ambos trabajos desarrolla la relación entre la lógica y las matemáticas, conociendose como lógica proposicional “Booleana”.
1.879

G. Frege

Publica “Begriffschrift” (Conceptografía) donde introduce el cálculo deductivo de primer orden denominada también lógica predicativa ó lógica de predicados.
1.887

Ramón y Cajal

Detalla el sistema nervioso humano que está compuesto de red de neuronas interconectadas entre si. Ver “Textura del Sistema Nervioso del Hombre y de los Vertebrados”.
1.901

L. Torres Quevedo

Publica “Automática” y “El Aritmómetro electromecánico”, son la antesala de lo que hoy llamamos robots con funciones de realimentación.
1.922

Karel Capek

Estrena una obra de teatro con el nombre R.U.R. (Rossumovi univerzální roboti), representa un mundo imaginario donde los de seres humanos son ensamblados por piezas y bautizados con el nombre de ROBOTS. Es la primera vez que aparece el concepto de robot.
1.927

Fritz Lang

Estrena la pelicula Metrópolis, donde un actor pricipal es Gynoid, un robot humanoide femenino.
1.941

Jorge Luis Borges

Publica el cuento “El jardín de senderos que se bifurcan”. La idea narrativa que subyace es la posibilidad de la existencia de caminos que se bifurcan en un número casi infinito de opciones. Idea que influencia a los creadores del hipertexto.
1.942

Arturo Rosenblueth Norbert Wiener

Julián Bigelow

Definen el término “cibernética” desde el punto de vista de sistemas de control basados en la retroalimentación. En el siglo XIX el témino ya lo utilizó André-Marie Ampère en un contexto distinto.
1.943

Warren McCulloch

Walter Pitts

McCulloch era neurofisiólogo y Walter Pitts matemático, sus trabajos se fundamentan en la forma de trabajar de las neuronas que replican mediante circuitos eléctricos, proponen una representación simbólica de la actividad cerebral en “A logical calculus of Ideas Imminent in Nervous Activity”.
1.945 Vannevar Bush Publica “As we may think …”, ( Cabría imaginar …), que sienta las bases de lo que se conoce como Hipertexto, Multimedia e Hipermedia. Recordad que este tipo tuvo un papel importante en la creación de la bomba atómica.
1.948 Claude E. Shannon Publica “Mathematical theory of communication”, (Teoría matemática de la información) donde demuestra que las fuentes de información, de aquella época, (telégrafo eléctrico, teléfono, radio, las cámaras de televisión, etcétera) pueden medirse. Este artículo es el comienzo de la teoría de la información. Al siguiente año publica un artículo que describía la programación de una computadora para jugar al ajedrez.
1.948

Jerzy-Konorski

Publica “Conditioned Reflexes and Neuron Organization” donde presenta una de las primeras teorías del aprendizaje asociativo como resultado de la plasticidad neuronal a largo plazo. Dice:

SI una neurona presináptica “j” dispara repetidamente una neurona postsináptica “i” en un tiempo breve,

entonces la fuerza sináptica entre los dos aumenta

en caso contrario, se reduce.

Se adelanta un año a Donald Hebb.

1.949 Donald Hebb Explica los procesos de aprendizaje de los humanos desde la biosicología. Desarrolla una regla de cómo sería éste aprendizaje basánose en los cambios que se producen en una neurona durante la actividad nerviosa. Lo publica en “The Organization of Behavior” (La Organización del Comportamiento).
1.949

Alan Lloyd Hodgkin Andrew Huxley

Alan L.Hodgkin

y Andrew Huxley

Publican “A quantitative description of ion currents and its applications to conduction and excitation in nerve membranes” donde proponen un modelo matemático para explicar los mecanismos iónicos que subyacían en la iniciación y propagación de los potenciales de acción del axón del calamar gigante. Es el primer modelo de neuronas de impulso (HH).
1.950-2

David Hubel y

Torsten Wiesel

Crean el primer modelo de neurona del calamar gigante, tratando cada uno de sus componentes, incluida su membrana, como componentes eléctricos.
1.950

Alan Turing

Se pregunta: “¿Pueden las máquinas pensar?”. Propone la denominada “Prueba de Turing” para detectar a un programa de computador que trate de sustituir al humano en un interrogatorio. Posteriormente se adapta la denominada MNT.
1.950 Karl Spencer Lashley Encuentra que la información no se almacena en una zona determinada del cerebro, sino que se distribuye en distintas zonas.
1.952 Arthur SamuelArthur Samuel Desarrolla un programa / juego de damas que aprendía y mejoraba cada vez que se jugaba una partida. Algunos le consideran un pionero en el aprendizaje automático.
1.956

John P. McCarthy

Define el término Inteligencia Artificial.
1.956

Allen Newell

Herbert A. Simon

John Clifford Shaw

Escribieron el primer programa para ordenadores de inteligencia artificial denominado “Logic Theorist”, con el primer primer lenguaje de programación para IA el “IPL-II”. En 1.957 escriben otro programa denominado “General Problem Solver” que no es aplicable al mundo práctico.

Al mismo tiempo Newell y Simon Publicaron “The Logic Theory Machine. A Complex Information Processing System” donde describían el primer algoritmo que resolvía problemas imitando a los seres humanos. Los resultados de estos estudios formaron la base para el desarrollo de las ciencias cognitivas y simulación cognitiva humana, la computación heurística. Lo conocemos actualmente como modelo simbólico computacional cognitivo.

1.958

John P. McCarthy

Publica “Recursive Functions of Symbolic Expressions and Their Computation by Machine”, Funciones recursivas de expresiones simbólicas y su cálculo por máquina. Es el fundamento del lenguaje de programación Lisp “LISt Processor” (Procesador de listas) utilizado en la incipiente IA.
1.958 Frank Rosenblatt Desarrolla el Perceptrón, la primera red neuronal que hoy se utiliza como identificador de patrones, lo explica en “The perceptron: a probabilistic model for information storage and organization in the brain.”. El Perceptron era capaz de aprender una serie de patrones y con este aprendizaje, reconocer otros similares, pero no podía clasificar datos no separables linealmente y tampoco resolvía la función OR-exclusiva.
1.960 Alex S. Fraser Desde mediados de la década de 1.950 hasta pricipios de la de los 60 estuvo publicando árticulos sobre la evolución de sistemas biológicos en un computador, el más importante fue “Simulation of genetic systems by automatic digital computers”. Propone que los algoritmos genéticos al adaptaarse deben contemplar:

  • La adaptacion ocurre en un entorno.
  • La adaptación es un proceso poblacional.
  • Los comportamientos individuales pueden representarse mediante programas,
  • Pueden generarse nuevos comportamientos mediante variaciones aleatorias de los programas.
  • Las salidas de dos programas pueden estar relacionadas si sus estructuras estan relacionadas.
1.960

Marcian Edward Hoff

Bernard Widroff Marcian Edward Hoff

Desarrollan el modelo Adaline (ADAptative LINear Elements) y Madaline (Multiple ADALINE), fueron utilizadas en aplicaciones de reconocimiento de voz, caracteres y predicción del tiempo. Adaline fue la primera red neuronal aplicada a un problema real, la eliminación de ecos en líneas telefónicas.
1.961
Karl Steinbuch
Origina Die Lernmatrix, es el primer modelo matemático de memoria asociativa, es la forma en la cual trabaja la mente humana.
1.961

Marvin Minsky

Publica “Steps toward artificial intelligence”, Pasos hacia la IA, inteligencia artificial.
1.962

David Hunter Hubel y

Torsten Nils Wiesel

Publican “Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex.” sugireren un nuevo modelo de cómo los mamíferos perciben el mundo visualmente. Mostraron que las cortezas visuales de gato y mono incluyen neuronas que responden exclusivamente a las neuronas en su ambiente directo. Inspiración de las redes  convolucionales.
1.962 Hans-Joachin Bremermann Publica “Optimization through evolution and recombination”, donde realiza una de las primeras simulaciones de los algoritmos genéticos.
1.962
John H. Holland
Publica “Outline for a logical theory of adaptive systems”, Resumen de una teoría lógica de los sistemas adaptativos, donde desarrolla los “planes reproductivos y adaptativos” para hacer que las computadoras aprendan imitando el proceso de la evolución genética.
1.963 Ivan Sutherland A partir de su tesis, “Sketchpad: Man-machine Graphical Communications System, un sistema de comunicaciones gráficas hombre-máquina”, origina un programa de ordenador que gestionaba el primer periférico que interactúa con humanos. Con un puntero, creado en 1.955, y adaptado, permitía dibujar formas y figuras a través de la pantalla de un computador, era el comienzo del diseño asistido por ordenador.
1.963-6 M. Ross Quillian Desarrolla las redes semánticas como modelo de representación del conocimiento. Memoria asociativa.
1.964

Ingo RechenbergHans-Paul Schwefel

Ingo Rechenberg

Hans-Paul Schwefel

Peter Bienert

Desarrollan, basándose en los mecanismos de mutación de la naturaleza, un conjunto de métodos de optimización que se denominaron Estrategias Evolutivas.
1.964

Daniel G. Bobrow

En su tesis “Natural Language Input for a Computer Problem Solving System”, elabora el programa STUDENT, escrito en lenguaje Lisp que es capaz de leer y resolver problemas básicos de álgebra, su cualidad principal es la capacidad de procesamiento del lenguaje natural.
 1.965

Olexiy H.Ivakhnenko

V. G Lapa

Publican “Cybernetic Predicting Devices”, el primer algoritmo supervisado de aprendizaje profundo del tipo perceptron multicapa Feedforward con funciones de activación polinomial. Algunos consideran a Ivakhnenko el padre del DP “Deep Learning”, “Aprendizaje profundo”.
1.965-75

Edward Feigenbaum

Bruce G. Buchanan

Joshua Lederberg

Carl Djerassi

Desarrollan el primer sistema que emula la capacidad de tomar decisiones de un humano, un “Sistema Experto” denominado Dendral (Dendritic Algorithm). Estaba escrito en el lenguaje de programación LISP para química orgánica e identificación moléculas desconocidas.
1.965 Nils J. Nilsson Describe el concepto de que las máquinas pueden aprender en el libro “Learning Machines: Foundations of Trainable Pattern Classifiers”.
1.966

John Von Neumann

Desarrolla la teoría de Autómatas Celulares descrita en su libro “Theory of Self-reproducing Automata” de 1.966. Esta teoría proviene de los trabajos de Stanis?aw Ulam y Konrad Zuse de la década de 1.940.
1.967 Stephen Grossberg Desarrolla la red Avalancha, que resuelve el reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
1.968 Ivan Sutherland Desarrolla el primer modelo de gafas de realidad virtual “Head mounted display”.
1.968 Olexiy H.Ivakhnenko Origina el GMDH “Group method of data handling”, “Método grupal para manejo de datos”, es un conjunto de algoritmos matemáticos inductivos con soporte computacional para resolver los problemas de identificación, reconocimiento de patrones y predicción a corto plazo.
1.968 Philip Kindred Dick Publica “Do Androids Dream of Electric Sheep?” ( ¿Sueñan los androides con ovejas eléctricas? ). En la novela plantea la convivencia, en 1.992, con androides y ésta no es del todo positiva.
1.968-71 Vladimir Naumovich Vapnik

Alexey Chervonenkis

Publican la denominada teoría Vapnik-Chervonenkis (VC) sobre el aprendizaje estadístico que intenta explicar el proceso de aprendizaje desde un punto de vista estadístico.
1.969

Marvin Minsky

Seymour Papert

Proponen en “Perceptrons: an introduction to computational geometry”, “Perceptrones: una introducción a la geometría computacional”, que la computación neuronal no era un tema interesante. Prueban, matemáticamente, que el Perceptron sería incapaz de aprender funciones no lineales, pero no van más allá. Esto finaliza los estudios sobre el Perceptron y obliga a un cambio en la búsqueda de soluciones. Estas opiniones hicieron que la IA deambulara sin rumbo un par de décadas. Desde la perspectiva actual habría que darles el premio Princesa de Asturias a la “Tontería científica del 69”.
1.969

Stephen Grossberg

Propone los algoritmos instar y outstar como reglas de aprendizaje.
1.970

Seppo Linnainmaa

Introduce el modo inverso de diferenciación automática (AD) que fue implementado en ordenadores de aquella época como se utiliza actualmente en la retrocesión , “Backpropagation“, y en los perceptrones multicapa.
1.970

Howard H. Pattee

Michael Conrad

Publican “Evolution Experiments with an Artificial Ecosystem”, donde simulan un ecosistema artificial jerárquico en el que un conjunto de organismos unicelulares estaban sujetos a una estricta ley de conservación de la materia que les induce a competir por sobrevivir.
1.970

John H. Conway

Desarrolla “The Game of Life” (El Juego de la Vida), el más famoso de autómatas celulares.
1.970

Teuvo Kohonen

En la década de 1.970 realiza dos aportaciones importantes en el estudio de las RNA:

  1. Describe y analiza las reglas adaptativas. Las conexiones ponderadas se modifican de una forma dependiente de los valores anteriores y posteriores de las sinapsis.
  2. Propone el principio de aprendizaje competitivo. Los elementos compiten por responder a un estímulo de entrada, y el ganador se adapta para responder con mayor efecto al estímulo.
1.973

C. von Malsburg

Publica “Self-organization of orientation sensitive cells in the striate cortex”. Reglas de aprendizaje auto-organizativas que permiten clasificar entradas tal que las neuronas vecinas responden a entradas semejantes. Para garantizar que los pesos estuviesen normalizados debía realizar un cálculo externo que penalizaba su desarrollo.
1.974 Paul Werbos Desarrolla la idea, propuesta por Seppo Linnainmaa, del algoritmo “Backpropagation” de aprendizaje en retrocesión (propagación hacia atrás), en su tesis doctoral  “Beyond regression: new tools for prediction and analysis in the behavioral sciences”.
1.974 William A. Little Publica “The Existence of Persistent States in the Brain”, una formulación de un modelo de red neuronal asociativa.
1.975

John H. Holland

Publica “Adaptation in Natural and Artificial Systems”, Adaptación en sistemas naturales y artificiales. Es la continuación de sus trabajos en la década de 1.960. En este libro presenta un modelo matemático que permite la no linealidad de interacciones complejas, similar a como los sistemas biológicos evolucionan reorganizando el material genético para sobrevivir en su entorno.
1.976

Stephen Grossberg

Gail Carpenter

Enuncian la teoría de Resonancia Adaptada (TRA). Es una arquitectura en la cual se simulan otras habilidades del cerebro, como la memoria a largo y corto plazo.
1.977 Charles L. Forgy Desarrolla OPS5 (Official Production System), un lenguaje de programación basado en reglas, donde una regla consiste en una precondición/es y una acción resultante. Fue muy utilizado para sistemas expertos.
1.980-5 John Hopfield Retoma los trabajos de William A. Little y Stephen Grossberg, creando una red neuronal asincrona asociativa conocida como la Red Hopfield o Crossbar Associative Network. Lo publica en 1.982 como “Neural networks and physical systems with emergent collective computational abilities.”
1.980

Kunihiko Fukushima

Presenta Neocognitron, una red neuronal multicapa y jerárquica que reconoce caracteres escritos a mano y que es origen de las redes neuronales convolucionales. Su trabajo se fundamenta en los realizados por David Hubel y Torsten Wiesel respecto de la base neuronal de la percepción visual, ellos estudiaron cómo las neuronas extraen información de los patrones de luz recibida en la retina.
1.981

Teuvo Kohonen

Desarrolla el mapa de autoorganización (SOM), es uno de los algoritmos más conocidos. Lo publica como “Self-Organized Formation of Topologically Correct Feature Maps”.
1.985

David H. Ackley

Geoffrey E. Hinton

Terrence J. Sejnowski

Desarrollan “A Learning Algorithm for Boltzmann Machines”. Un algoritmo de aprendizaje para la máquina Boltzmann, esta máquina es una red recurrente de neuronas conectadas simétricamente que toman decisiones estocásticas sobre si se deben activarse o desactivarse, representan la información a partir de una distribución de probabilidad. El nombre de “La Máquina de Boltzmann” proviene de los trabajos sobre la entropia y el segundo principio de la termodinamica del físico L. Boltzmann.
1.985

John Haugeland

Denomina a la IA simbólica como GOFAI (Good Old-Fashioned Artificial Intelligence) en su libro “Artificial Intelligence: The Very Idea”, “Inteligencia Artificial: La Idea Pura”, donde explora las implicaciones filosóficas de la investigación de la inteligencia artificial.
1.986

Terrence J. Sejnowskiv

Terrence J. Sejnowski

Charles R. Rosenberg

Desarrollan NETtalk, un sistema de red masivamente paralela que aprende a convertir texto en inglés a voz inglesa.
1.986

Robert Hecht-Nielsen

Desarrolla Counter Propagation Network (CPN), una red de aprendizaje no supervisado competitivo. Aprende en dos fases:

  1. La no supervisada basada en kohonen
  2. La supervisada en Grossberg.
1.986

Paul Smolensky

Desarrolla Harmonium, red que terminaría denominánose máquina de Boltzmann restringida, Restricted Boltzmann Machines (RBM).
1.986

Geoffrey E. Hinton

David E. Rumelhart

Ronald J. Williams

Amplían las espectativas del algoritmo de retrocesión de aprendizaje basándose en los trabajos de Paul Werbos, también sobre los de David Parker, David Rumelhart y Yann LeCun, denominándolo BPTT (Backpropagation Through Time). Crean el grupo PDP (Parallel Distributed Processing) que postula 3 principios básicos:

  1. La representación de la información se distribuye.
  2. La memoria y conocimiento no se almacenan explícitamente, sí se almacenan en las conexiones entre unidades.
  3. El aprendizaje puede suceder con cambios graduales por la experiencia acumulada en las conexiones.
1.986 Michael Jordan Propone una nueva arquitectura para generar secuencias de fonemas con una estructura de cuatro capas.

  • Unidades plan.
  • Unidades de contexto.
  • Unidades ocultas.
  • Unidades de salida.
1.987

John E. Laird
Allen Newell
Paul S. Rosenbloom

Publican el artículoSoar: An Architecture for General Intelligence”, donde diseñan una arquitectura basada en el modelo simbólico cognitivo. Su desarrollo se realizó inicialmente en OPS5 y Lisp. Se basa en los trabajos previos de Allen Newell que la definió en 1.982 como SOR (state, operator, and result).
1.987

Martin Fischles

Oscar Firscein

Definen los atributos que debe tener un “Agente inteligente”: Tiene actitudes mentales (creencias e intenciones), tiene la capacidad de obtener conocimiento (aprender), puede resolver problemas, es capaz de realizar operaciones complejas, entiende y posee la capacidad de dar sentido a ideas, planifica y evalúa alternativas, conoce los limites de sus habilidades y conocimientos, puede distinguir en situciones similares, puede ser original creando nuevos conceptos o ideas y analogías, puede generalizar, puede percibir y modelar el mundo exterior, puede entender y utilizar el lenguaje y sus símbolos.
1.987 Richard P. Lippmann Publica “An Introduction’ to Computing with Neural Nets” donde crea la red de Hamming como ejemplo más claro de una red competitiva que tiene un aprendizaje no supervisado diciendo que es superior a la de Hopfield. Las neuronas en la capa de salida de una red de Hamming compiten entre sí para determinar cual es la ganadora. La ganadora indica cual patrón prototipo es el más representativo de los patrones de entrada
1.987 B. M. Forrest – D. Roweth – N. Stroud D. J. Wallance – G. V. Wilson Publican “Implementing Neural Network Models on Parallel Computers” utilizando procesadores SIMD y MIMD.
1.987-8 Fernando J. Pineda
Luis B. Almeida
Richard Rohwer
Proponen independientemente nuevos algoritmos para el aprendizaje en redes con conexiones recurrentes.
1.987-2.013 Iain M.Banks Publica una serie de novelas, dentro de la colección “La Cultura”, que narran la integración de la Inteligencia artificial, con humanos y extraterrestres. La IA no es el objeto principal de sus argumentos, pero siempre está, de una forma u otra, en el trasfondo de la acción.
1.988 Bart Kosko Propone el modelo BAM (Bidirectional Associative Memories).
1.989

Christopher J. Watkins

Publica su tesis doctoral titulada “Learning from Delayed Rewards”. En ella introduce el concepto Q-learning que mejora el aprendizaje de refuerzo (aprendiendo de recompensas y castigos) en las máquinas, sugirió que era posible aprender el control óptimo directamente sin modelar las probabilidades de transición o las recompensas esperadas del proceso de decisión de Markov (MDP, Markov decision processes).

1.989 Alexander Waibel Desarrolla Time delay neural network (TDNN), Red neuronal con retardo de tiempo.
1.989

Ronald J. Williams David Zipser

Publican “A learning algorithm for continually running fully recurrent neural networks”, Aprendizaje recurrente en tiempo real denominado RTRL (Real Time Recurrent Learning). RTRL se aplica a dos conceptos diferentes:

  1. Se puede ver únicamente como un método para obtener los derivados.
  2. Método para obtener los derivados y actualizar los pesos en cada ciclo.
 1.989

Yann LeCun

Combinó las redes neuronales convolucionales con teorías de retropropagación para leer dígitos manuscritos. La primera aplicación práctica fue su utilización, entre otras cosas, para la lectura de cheques bancarios escritos a mano, llegando a procesarse con su desarrollo cerca del 20% de los cheques en los Estados Unidos de América.
1.990 Jeffrey Locke Elman Publica “Finding structure in time” en Cognitive Science, donde introduce la denominada red neuronal simple recurrente (SRNN Simple Recurrent Neural Network), basándose en sus trabajos como psicolingüista. Se está aplicando fundamentalmente en ciencia cognitiva, sicología, economía y física.
1.992 Juyang Weng Narendra Ahuja Shi-Tao HuangJuyang Weng, Narendra Ahuja y Shi-Tao Huang Desarrollan el Cresceptron, basándose en los conocimientos y topología que aporta el Neocognitron. Usa capas Max-Pooling (MP). En 1.997 Juyang Weng desarrolló un Cresceptron más complejo para mejorar la ubicación de los objetos.
1.993

Jürgen Schmidhuber

Marca un hito y avance en la complejidad de las RNA al utilizar más de 1.000 capas en una red recurrente para resolver tareas de aprendizaje profundo.
1.993 James A. Anderson Publica el modelo de una red reunoral autoasociativa no lineal simple denominada, BSB (brain-state-in-a-Box).
1.994 Kenneth V. Price
Rainer Storn
Proponen la Evolución Diferencial, Differential Evolution (DE), fue diseñada para optimizar problemas, del Polinomio Chebychev, sobre dominios continuos en la computación evolutiva (algoritmos genéticos).
1.995

Corinna Cortes y Vladimir Vapnik

Vladimir Naumovich Vapnik publica la primera versión de “Statistical Learning Theory” en 1.979, es la que muchos llaman el inico de las SVM (Support Vector Machines, Máquinas de Soporte Vectorial) que culmina con la publicación, junto con Corinna Cortés en 1.995, de “Support-Vector Networks”, que es la descripción de una máquina de aprendizaje para problemas de clasificación de dos gruops de datos.

1.997

Jürgen Schmidhuber

Sepp Hochreiter

Conocian el problema de aprender a almacenar información a lo largo de intervalos de tiempo, ya que Hochreiter lo había estudiado en 1.991 y publican LSTM “Long Short-Term Memory”, un red recurrente con memoria a corto plazo.
1.997

Mike Schuster y Kuldip K. Paliwal

Publican BRNN (Bidirectional Recurrent Neural Networks). La idea básica es conectar dos capas ocultas de direcciones opuestas a la misma salida. Con esta estructura, la capa de salida puede obtener información de estados pasados ​​y futuros.
1.997

David E. Kieras

David E. Meyer

Publican “EPIC architecture for cognition and performance with application to human–computer interaction”. EPIC es (Executive Process-Interactive Control) una arquitectura que modela el desempeño humano con procesadores en paralelo. Pertenece al modelo simbólico cognitivo
1.998

Yann LeCunLeón BottouYoshua BengioPatrick Haffner

Yann LeCun, León Bottou, Yoshua Bengio y Patrick Haffner

Lenet Fue la primera red convolucional aplicada en la banca para reconocer números escritos a mano en cheques digitalizados. La capacidad de procesar imágenes de mayor resolución requiere capas más grandes por lo que esta técnica se ve limitada por la capacidad de recursos de computación.
1.999

Lewis, R.L.

Propone un modelo simbólico computacional cognitivo.
2.000

Felix Gers

Mejora el modelo LSTM de J. Schmidhuber y S. Hochreiter
2.000 Honda Presentan la primera versión de ASIMO (Advanced Step in Innovative Mobility), un robot humanoide bípedo que camina, transporta peso, sube y baja escaleras, reconoce gestos humanos, juega al futbol y otras muchas cosas más.
2.002

Stephen Wolfram

Publica un contrevertido libro, para algunos, sobre autómatas celulares titulado “New Kind of Science” (Un nuevo tipo de ciencia).
2.005

Inés Couso Blanco

Luciano Sánchez Ramos

Destacar sus trabajos en International Journal of Approximate Reasoning desde 2.005.
2.007 TOSY Robotics Presentan la primera versión de TOPIO (TOSY Ping Pong Playing Robot), un robot humanoide diseñado para jugar al ping-pong
2.014 Igor Bykovskih, Sergey Ulasen, Vladimir Veselov y Andrey Adashchik El desarrollo del programa “Eugene Goostman” se realizó en San Petersburgo en 2.001 (Vladimir Veselov, Eugene Demchenko y Sergey Ulasen) y desde 2.005 ha intentado superar la prueba de Turing. En 2.014 “Eugene” simula ser un niño de 13 años que es sometido a la prueba y convence al 33% de los jueces de que es humano. Los cineofilos recordaran la prueba de empatía de “Voigt-Kampff” que “no” pasa el replicante en Blade Runner (1.982). En 9 años han llegado al 33% de efectividad, siendo corservador, ¿podemos plantearnos que una entrevista de trabajo en 2.060 nos la pueda realizar una máquina?.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

12 − 7 =