Fecha | Autor | Comentario |
---|---|---|
-300 | ![]() |
Crea los silogismos (Razonamiento deductivo). Un ejemplo:
→ Por tanto: Algunas serpientes nos pueden matar |
1.430 |
Giovanni (Johannes) de la Fontana |
Publica “Secretum de thesauro experimentorum ymaginationis hominum”, en parte escrito en un sistema de cifrado de sustitución, donde habla de distintos inventos y dispositivos mecánicos, también sobre diferentes tipos de memoria, proponiendo máquinas con una estructura de ruedas y cilindros con una parte móvil y variable que permite cambiar las combinaciones de signos dentro del dispositivo. |
1.749 | ![]() |
Publica entre 1.749 y 1.789 una serie de volúmenes titulados “Histoire naturelle, générale et particulière, avec la description du Cabinet du Roy”, donde indica que “las especies se originaron entre sí”, suponiendo que el entorno influía directamente sobre los organismos vivos, que los humanos y los simios podían tener orígenes comunes y que incluso existía un ancestro comun entre estas dos especies. La teoría evolutiva estaba enunciada, adelantándose 100 años a Darwin. |
1.791 | ![]() |
Establece la relación entre la neurofisiología y los fenómenos eléctricos no biológicos, proponiendo la existencia de una “electricidad animal”, después de verificar el efecto que tenía una descarga eléctrica sobre los músculos de un animal muerto. |
1.801-9 | ![]() |
Publica su teoría evolutiva “Philosophie Zoologique”, libro que le sirve a Darwin para su “El origen de las especies” de 1.849. Por contra, el creacionismo decía que las especies estaban ordenadas por Dios y el hombre ocupaba la cuspide de la pirámide, cerca del creador. Resumiendo, las especies sufren cambios adaptativos debido a la influencia del entorno y a lo largo de grandes periodos de tiempo. La ciencia comienza a deshacer “los cimientos de la humanidad” y la computación, a su tiempo, toma la idea de la evolución y comienza sus cambios con los trabajos de Alexander S. Fraser. |
1.847 | ![]() |
En 1.847 Publica Análisis matemático de la lógica y en 1.854 Investigación sobre las leyes del pensamiento, en ambos trabajos desarrolla la relación entre la lógica y las matemáticas, conociendose como lógica proposicional “Booleana”. |
1.879 | Publica “Begriffschrift” (Conceptografía) donde introduce el cálculo deductivo de primer orden denominada también lógica predicativa ó lógica de predicados. | |
1.887 | Detalla el sistema nervioso humano que está compuesto de red de neuronas interconectadas entre si. Ver “Textura del Sistema Nervioso del Hombre y de los Vertebrados”. | |
1.901 |
L. Torres Quevedo |
Publica “Automática” y “El Aritmómetro electromecánico”, son la antesala de lo que hoy llamamos robots con funciones de realimentación. |
1.922 |
Karel Capek |
Estrena una obra de teatro con el nombre R.U.R. (Rossumovi univerzální roboti), representa un mundo imaginario donde los de seres humanos son ensamblados por piezas y bautizados con el nombre de ROBOTS. Es la primera vez que aparece el concepto de robot. |
1.923 |
Jean W. Fritz Piaget |
Plantea la teoría constructivista del desarrollo de habilidades y la inteligencia. Estudia el funcionamiento de la inteligencia mediante la asimilación y la acomodación que nos permite reestructurar cognitivamente nuestro aprendizaje a lo largo del desarrollo. Propone los esquemas mentales como una estructura mental organizada que puede ser transferida y generalizada.
Siguiendo su razonamiento, ¿podríamos transferir las estructura mentales a la tecnología?. |
1.927 |
Fritz Lang |
Estrena la pelicula Metrópolis, donde un actor pricipal es Gynoid, un robot humanoide femenino. |
1.941 | Publica el cuento “El jardín de senderos que se bifurcan”. La idea narrativa que subyace es la posibilidad de la existencia de caminos que se bifurcan en un número casi infinito de opciones. Idea que influencia a los creadores del hipertexto. | |
1.942 |
Julián Bigelow |
Definen el término “cibernética” desde el punto de vista de sistemas de control basados en la retroalimentación. En el siglo XIX el témino ya lo utilizó André-Marie Ampère en un contexto distinto. |
1.943 |
Warren McCulloch Walter Pitts |
McCulloch era neurofisiólogo y Walter Pitts matemático, sus trabajos se fundamentan en la forma de trabajar de las neuronas que replican mediante circuitos eléctricos, proponen una representación simbólica de la actividad cerebral en “A logical calculus of Ideas Imminent in Nervous Activity”. |
1.945 | ![]() |
Publica “As we may think …”, ( Cabría imaginar …), que sienta las bases de lo que se conoce como Hipertexto, Multimedia e Hipermedia. Recordad que este tipo tuvo un papel importante en la creación de la bomba atómica. |
1.948 | Apartir de sus conocimientos como neurofisiólogo construyó varios robots denominados tortugas, él los denominó “machina speculatrix”. Sus movimientos eran dirigidos por el tacto (golpes) y a la luz, y cuando se les acababa la batería se dirigían hacia el punto de conexión para recargarse. | |
1.948 | ![]() |
Publica “Mathematical theory of communication”, (Teoría matemática de la información) donde demuestra que las fuentes de información, de aquella época, (telégrafo eléctrico, teléfono, radio, las cámaras de televisión, etcétera) pueden medirse. Este artículo es el comienzo de la teoría de la información. Al siguiente año publica un artículo que describía la programación de una computadora para jugar al ajedrez. |
1.948 |
Jerzy-Konorski |
Publica “Conditioned Reflexes and Neuron Organization” donde presenta una de las primeras teorías del aprendizaje asociativo como resultado de la plasticidad neuronal a largo plazo. Dice:
SI una neurona presináptica “j” dispara repetidamente una neurona postsináptica “i” en un tiempo breve, entonces la fuerza sináptica entre los dos aumenta en caso contrario, se reduce. Se adelanta un año a Donald Hebb. |
1.949 | ![]() |
Explica los procesos de aprendizaje de los humanos desde la biosicología. Desarrolla una regla de cómo sería éste aprendizaje basándose en los cambios que se producen en una neurona durante la actividad nerviosa. Lo publica en “The Organization of Behavior” (La Organización del Comportamiento). |
1.949 |
Alan L.Hodgkin y Andrew Huxley |
Publican “A quantitative description of ion currents and its applications to conduction and excitation in nerve membranes” donde proponen un modelo matemático para explicar los mecanismos iónicos que subyacían en la iniciación y propagación de los potenciales de acción del axón del calamar gigante. Es el primer modelo de neuronas de impulso (HH). |
1.950-2 |
Torsten Wiesel |
Crean el primer modelo de neurona del calamar gigante, tratando cada uno de sus componentes, incluida su membrana, como componentes eléctricos. |
1.950 |
Alan Turing |
Se pregunta: “¿Pueden las máquinas pensar?”. Propone la denominada “Prueba de Turing” para detectar a un programa de computador que trate de sustituir al humano en un interrogatorio. Posteriormente se adopta la denominada MNT. |
1.950 | ![]() |
Encuentra que la información no se almacena en una zona determinada del cerebro, sino que se distribuye en distintas zonas. |
1.951 | ![]() |
Construye SNARC (Stochastic Neural Analog Reinforcement Calculator) el primer “neurocomputador”. |
1.952-5 | ![]() |
Desarrolla la idea de aprender a través de la competencia entre jugadores, demostrando que los algoritmos podrían aprender a jugar a las damas. Los programas que desarrolló fueron una demostración del concepto de inteligencia artificial y definió el aprendizaje automático a través de la función de recompensa, árboles de búsqueda o técnicas de memorización basadas en la repetición. |
1.956 | ![]() |
John McCarthy, Marvin L. Minsky, Nathaniel Rochester y Claude E. Shannon proponen a distintas instituciones la creación de un “taller de verano“, en Dartmouth, para la investigación de la IA. Esto desencadena la definición del término “Inteligencia Artificial” por John P. McCarthy y de “Aprendizaje Automático” por parte de Arthur L. Samuel. Algunas de las personas que pasaron por allí:
Abraham Robinson, Allen Newell, David Sayre, John F. Nash Jr, Julian Bigelow, Nat Rochester, Oliver Selfridge, Ray Solomonoff, Trenchard More, W. Ross Ashby, WS McCulloch, Herbert A. Simon, Kenneth R. Shoulders,… |
1.956 |
Herbert A. Simon John Clifford Shaw |
Escribieron el primer programa para ordenadores de inteligencia artificial denominado “Logic Theorist”, con el primer lenguaje de programación para IA el “IPL-II”. En 1.957 escriben otro programa denominado “General Problem Solver” que no es aplicable al mundo práctico. Al mismo tiempo Newell y Simon Publicaron “The Logic Theory Machine. A Complex Information Processing System” donde describían el primer algoritmo que resolvía problemas imitando a los seres humanos. Los resultados de estos estudios formaron la base para el desarrollo de las ciencias cognitivas y simulación cognitiva humana, la computación heurística. Lo conocemos actualmente como modelo simbólico computacional cognitivo. |
1.957 | ![]() |
Publica Howtosolveit donde usa el término “Heurística” para referirse al estudio de métodos para descubrir e inventar técnicas de solución de problemas. |
1.958 |
John P. McCarthy |
Publica “Recursive Functions of Symbolic Expressions and Their Computation by Machine”, Funciones recursivas de expresiones simbólicas y su cálculo por máquina. Es el fundamento del lenguaje de programación Lisp “LISt Processor” (Procesador de listas) utilizado en la incipiente IA. |
1.958 | ![]() |
Desarrolla el Perceptrón, la primera red neuronal que hoy se utiliza como identificador de patrones, lo explica en “The perceptron: a probabilistic model for information storage and organization in the brain.”. El Perceptron era capaz de aprender una serie de patrones y con este aprendizaje, reconocer otros similares, pero no podía clasificar datos no separables linealmente y tampoco resolvía la función OR-exclusiva. |
1.960 | ![]() |
Desde mediados de la década de 1.950 hasta pricipios de la de los 60 estuvo publicando árticulos sobre la evolución de sistemas biológicos en un computador, el más importante fue “Simulation of genetic systems by automatic digital computers”. Propone que los algoritmos genéticos al adaptarse deben contemplar:
|
1.960 |
Bernard Widroff Marcian Edward Hoff |
Desarrollan el modelo Adaline (ADAptative LINear Elements) y Madaline (Multiple ADALINE), fueron utilizadas en aplicaciones de reconocimiento de voz, caracteres y predicción del tiempo. Adaline fue la primera red neuronal aplicada a un problema real, la eliminación de ecos en líneas telefónicas. |
1.961 | ![]() Karl Steinbuch |
Origina Die Lernmatrix, es el primer modelo matemático de memoria asociativa, es la forma en la cual trabaja la mente humana. |
1.961 |
Marvin Minsky |
Publica “Steps toward artificial intelligence”, Pasos hacia la IA, inteligencia artificial. |
1.962 | ![]() |
Publican “Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex.” sugireren un nuevo modelo de cómo los mamíferos perciben el mundo visualmente. Mostraron que las cortezas visuales de gato y mono incluyen neuronas que responden exclusivamente a las neuronas en su ambiente directo. Inspiración de las redes convolucionales. |
1.962 | ![]() |
Publica “Optimization through evolution and recombination”, donde realiza una de las primeras simulaciones de los algoritmos genéticos. |
1.962 | ![]() John H. Holland |
Publica “Outline for a logical theory of adaptive systems”, Resumen de una teoría lógica de los sistemas adaptativos, donde desarrolla los “planes reproductivos y adaptativos” para hacer que las computadoras aprendan imitando el proceso de la evolución genética. |
1.963 | ![]() ![]() |
Publican “Computers and Thought” la primera antología de la Inteligencia Artificial. |
1.963 | ![]() |
A partir de su tesis, “Sketchpad: Man-machine Graphical Communications System, un sistema de comunicaciones gráficas hombre-máquina”, origina un programa de ordenador que gestionaba el primer periférico que interactúa con humanos. Con un puntero, creado en 1.955, y adaptado, permitía dibujar formas y figuras a través de la pantalla de un computador, era el comienzo del diseño asistido por ordenador. |
1.963-6 | ![]() |
Desarrolla las redes semánticas como modelo de representación del conocimiento. Memoria asociativa. |
1.964 |
Ingo Rechenberg Hans-Paul Schwefel Peter Bienert |
Desarrollan, basándose en los mecanismos de mutación de la naturaleza, un conjunto de métodos de optimización que se denominaron Estrategias Evolutivas. |
1.964 |
Daniel G. Bobrow |
En su tesis “Natural Language Input for a Computer Problem Solving System”, elabora el programa STUDENT, escrito en lenguaje Lisp que es capaz de leer y resolver problemas básicos de álgebra, su cualidad principal es la capacidad de procesamiento del lenguaje natural. |
1.965 |
V. G Lapa |
Publican “Cybernetic Predicting Devices”, el primer algoritmo supervisado de aprendizaje profundo del tipo perceptron multicapa Feedforward con funciones de activación polinomial. Algunos consideran a Ivakhnenko el padre del DP “Deep Learning”, “Aprendizaje profundo”. |
1.965-75 |
Bruce G. Buchanan Joshua Lederberg Carl Djerassi |
Desarrollan el primer sistema que emula la capacidad de tomar decisiones de un humano, un “Sistema Experto” denominado Dendral (Dendritic Algorithm). Estaba escrito en el lenguaje de programación LISP para química orgánica e identificación de moléculas desconocidas. |
1.965 | ![]() |
Describe el concepto de que las máquinas pueden aprender en el libro “Learning Machines: Foundations of Trainable Pattern Classifiers”. |
1.966 |
John Von Neumann |
Desarrolla la teoría de Autómatas Celulares descrita en su libro “Theory of Self-reproducing Automata” de 1.966. Esta teoría proviene de los trabajos de Stanislaw Ulam y Konrad Zuse de la década de 1.940. |
1.967 | ![]() |
Desarrolla la red Avalancha, que resuelve el reconocimiento continuo del habla y aprendizaje de los brazos de un robot. |
1.968 | ![]() |
Desarrolla el primer modelo de gafas de realidad virtual “Head mounted display”. |
1.968 | ![]() |
Origina el GMDH “Group method of data handling”, “Método grupal para manejo de datos”, es un conjunto de algoritmos matemáticos inductivos con soporte computacional para resolver los problemas de identificación, reconocimiento de patrones y predicción a corto plazo. |
1.968 | ![]() |
Publica “Do Androids Dream of Electric Sheep?”, ¿Sueñan los androides con ovejas eléctricas?. En la novela plantea la convivencia, en 1.992, con androides, y ésta no es del todo positiva. |
1.968-71 | ![]() ![]() A.Chervonenkis |
Publican la denominada teoría Vapnik-Chervonenkis (VC) sobre el aprendizaje estadístico que intenta explicar el proceso de aprendizaje desde un punto de vista estadístico. |
1.969 |
Marvin Minsky Seymour Papert |
Proponen en “Perceptrons: an introduction to computational geometry”, “Perceptrones: una introducción a la geometría computacional”, que la computación neuronal no era un tema interesante. Prueban, matemáticamente que el Perceptron sería incapaz de aprender funciones no lineales, pero no van más allá. Esto finaliza los estudios sobre el Perceptron y obliga a un cambio en la búsqueda de soluciones. Estas opiniones hicieron que la IA deambulara sin rumbo un par de décadas. Desde la perspectiva actual habría que darles el premio Princesa de Asturias a la “Tontería científica del 69”. |
1.969 | Propone los algoritmos “instar” y “outstar” como reglas de aprendizaje. | |
1.970 | Introduce el modo inverso de diferenciación automática (AD) que fue implementado en ordenadores de aquella época como se utiliza actualmente en la retrocesión , “Backpropagation“, y en los perceptrones multicapa. | |
1.970 |
Michael Conrad |
Publican “Evolution Experiments with an Artificial Ecosystem”, donde simulan un ecosistema artificial jerárquico en el que un conjunto de organismos unicelulares estaban sujetos a una estricta ley de conservación de la materia que les induce a competir por sobrevivir. |
1.970 |
John H. Conway |
Desarrolla “The Game of Life” (El Juego de la Vida), el más famoso de autómatas celulares. |
1.970 | En la década de 1.970 realiza dos aportaciones importantes en el estudio de las RNA:
|
|
1.973 | Publica “Self-organization of orientation sensitive cells in the striate cortex”. Reglas de aprendizaje auto-organizativas que permiten clasificar entradas tal que las neuronas vecinas responden a entradas semejantes. Para garantizar que los pesos estuviesen normalizados debía realizar un cálculo externo que penalizaba su desarrollo. | |
1.974 | ![]() |
Desarrolla la idea, propuesta por Seppo Linnainmaa, del algoritmo “Backpropagation” de aprendizaje en retrocesión (propagación hacia atrás), en su tesis doctoral “Beyond regression: new tools for prediction and analysis in the behavioral sciences”. |
1.974 | ![]() |
Publica “The Existence of Persistent States in the Brain”, una formulación de un modelo de red neuronal asociativa. |
1.975 |
John H. Holland |
Publica “Adaptation in Natural and Artificial Systems”, Adaptación en sistemas naturales y artificiales. Es la continuación de sus trabajos en la década de 1.960. En este libro presenta un modelo matemático que permite la no linealidad de interacciones complejas, similar a cómo los sistemas biológicos evolucionan reorganizando el material genético para sobrevivir en su entorno. |
1.976 |
Gail Carpenter |
Enuncian la teoría de Resonancia Adaptada (TRA). Es una arquitectura en la cual se simulan otras habilidades del cerebro, como la memoria a largo y corto plazo. |
1.977 | ![]() |
Desarrolla OPS5 (Official Production System), un lenguaje de programación basado en reglas, donde una regla consiste en una precondición/es y una acción resultante. Fue muy utilizado para sistemas expertos. |
1.980-5 | ![]() |
Retoma los trabajos de William A. Little y Stephen Grossberg, creando una red neuronal asincrona asociativa conocida como la Red Hopfield o Crossbar Associative Network. Lo publica en 1.982 como “Neural networks and physical systems with emergent collective computational abilities.” |
1.980 |
Kunihiko Fukushima |
Presenta Neocognitron, una red neuronal multicapa y jerárquica que reconoce caracteres escritos a mano y que es origen de las redes neuronales convolucionales. Su trabajo se fundamenta en los realizados por David Hubel y Torsten Wiesel respecto de la base neuronal de la percepción visual, ellos estudiaron cómo las neuronas extraen información de los patrones de luz recibida en la retina. |
1.981 | Desarrolla el mapa de autoorganización (SOM), es uno de los algoritmos más conocidos. Lo publica como “Self-Organized Formation of Topologically Correct Feature Maps”. | |
1.985 | ![]() ![]() ![]() David H. Ackley Geoffrey E. Hinton Terrence J. Sejnowski |
Desarrollan “A Learning Algorithm for Boltzmann Machines”. Un algoritmo de aprendizaje para la máquina Boltzmann, esta máquina es una red recurrente de neuronas conectadas simétricamente que toman decisiones estocásticas sobre si se deben activarse o desactivarse, representan la información a partir de una distribución de probabilidad. El nombre de “La Máquina de Boltzmann” proviene de los trabajos sobre la entropia y el segundo principio de la termodinamica del físico L. Boltzmann. |
1.985 |
John Haugeland |
Denomina a la IA simbólica como GOFAI (Good Old-Fashioned Artificial Intelligence) en su libro “Artificial Intelligence: The Very Idea”, “Inteligencia Artificial: La Idea Pura”, donde explora las implicaciones filosóficas de la investigación de la inteligencia artificial. |
1.986 |
T. J. Sejnowski Charles Rosenberg |
Desarrollan NETtalk, un sistema de red masivamente paralela que aprende a convertir texto en inglés a voz inglesa. |
1.986 | Desarrolla Counter Propagation Network (CPN), una red de aprendizaje no supervisado competitivo. Aprende en dos fases:
|
|
1.986 |
Paul Smolensky |
Desarrolla Harmonium, red que terminaría denominánose máquina de Boltzmann restringida, Restricted Boltzmann Machines (RBM). |
1.986 |
Geoffrey E. Hinton David E. Rumelhart Ronald J. Williams |
Amplían las espectativas del algoritmo de retrocesión de aprendizaje basándose en los trabajos de Paul Werbos, también sobre los de David Parker, David Rumelhart y Yann LeCun, denominándolo BPTT (Backpropagation Through Time). Crean el grupo PDP (Parallel Distributed Processing) que postula 3 principios básicos:
|
1.986 | ![]() |
Propone una nueva arquitectura para generar secuencias de fonemas con una estructura de cuatro capas.
|
1.987 |
John E. Laird |
Publican el artículo “Soar: An Architecture for General Intelligence”, donde diseñan una arquitectura basada en el modelo simbólico cognitivo. Su desarrollo se realizó inicialmente en OPS5 y Lisp. Se basa en los trabajos previos de Allen Newell que la definió en 1.982 como SOR (state, operator, and result). |
1.987 |
Oscar Firscein |
Definen los atributos que debe tener un “Agente inteligente”: Tiene actitudes mentales (creencias e intenciones), tiene la capacidad de obtener conocimiento (aprender), puede resolver problemas, es capaz de realizar operaciones complejas, entiende y posee la capacidad de dar sentido a ideas, planifica y evalúa alternativas, conoce los limites de sus habilidades y conocimientos, puede distinguir en situciones similares, puede ser original creando nuevos conceptos o ideas y analogías, puede generalizar, puede percibir y modelar el mundo exterior, puede entender y utilizar el lenguaje y sus símbolos. |
1.987 | Richard P. Lippmann | Publica “An Introduction’ to Computing with Neural Nets” donde crea la red de Hamming como ejemplo más claro de una red competitiva que tiene un aprendizaje no supervisado diciendo que es superior a la de Hopfield. Las neuronas en la capa de salida de una red de Hamming compiten entre sí para determinar cual es la ganadora. La ganadora indica cuál patrón prototipo es el más representativo de los patrones de entrada |
1.987 | B. M. Forrest – D. Roweth – N. Stroud D. J. Wallance – G. V. Wilson | Publican “Implementing Neural Network Models on Parallel Computers” utilizando procesadores SIMD y MIMD. |
1.987-8 | ![]() ![]() ![]() Luis B. Almeida Richard Rohwer |
Proponen independientemente nuevos algoritmos para el aprendizaje en redes con conexiones recurrentes. |
1.987-2.013 | ![]() |
Publica una serie de novelas, dentro de la colección “La Cultura”, que narran la integración de la Inteligencia artificial, con humanos y extraterrestres. La IA no es el objeto principal de sus argumentos, pero siempre está, de una forma u otra, en el trasfondo de la acción. |
1.988 | ![]() |
Propone el modelo BAM (Bidirectional Associative Memories). |
1.989 |
Publica su tesis doctoral titulada “Learning from Delayed Rewards”. En ella introduce el concepto Q-learning que mejora el aprendizaje de refuerzo (aprendiendo de recompensas y castigos) en las máquinas, sugirió que era posible aprender el control óptimo directamente sin modelar las probabilidades de transición o las recompensas esperadas del proceso de decisión de Markov (MDP, Markov decision processes). |
|
1.989 | ![]() |
Desarrolla Time delay neural network (TDNN), Red neuronal con retardo de tiempo. |
1.989 |
Ronald J. Williams David Zipser |
Publican “A learning algorithm for continually running fully recurrent neural networks”, Aprendizaje recurrente en tiempo real denominado RTRL (Real Time Recurrent Learning). RTRL se aplica a dos conceptos diferentes:
|
1.989 | Combinó las redes neuronales convolucionales con teorías de retropropagación para leer dígitos manuscritos. La primera aplicación práctica fue su utilización, entre otras cosas, para la lectura de cheques bancarios escritos a mano, llegando a procesarse con su desarrollo cerca del 20% de los cheques en los Estados Unidos de América. | |
1.990 | ![]() |
Publica “Finding structure in time” en Cognitive Science, donde introduce la denominada red neuronal simple recurrente (SRNN Simple Recurrent Neural Network), basándose en sus trabajos como psicolingüista. Se está aplicando fundamentalmente en ciencia cognitiva, sicología, economía y física. |
1.991 |
Ramón L.Mántaras |
Propone la Distancia normalizada de la información que resuelve los problemas de partición desequilibrada de ganancia de información en ID3 y la relación de ganancia en C4.5. |
1.992 | ![]() ![]() ![]() |
Desarrollan el Cresceptron, basándose en los conocimientos y topología que aporta el Neocognitron. Usa capas Max-Pooling (MP). En 1.997 Juyang Weng desarrolló un Cresceptron más complejo para mejorar la ubicación de los objetos. |
1.993 | Marca un hito y avance en la complejidad de las RNA al utilizar más de 1.000 capas en una red recurrente para resolver tareas de aprendizaje profundo. | |
1.993 | ![]() |
Publica el modelo de una red reunoral autoasociativa no lineal simple denominada, BSB (brain-state-in-a-Box). |
1.994 | ![]() ![]() Rainer Storn |
Proponen la Evolución Diferencial, Differential Evolution (DE), fue diseñada para optimizar problemas, del Polinomio Chebychev, sobre dominios continuos en la computación evolutiva (algoritmos genéticos). |
1.995 |
Corinna Cortes y Vladimir Vapnik |
Vladimir Naumovich Vapnik publica la primera versión de “Statistical Learning Theory” en 1.979, es la que muchos llaman el inico de las SVM (Support Vector Machines, Máquinas de Soporte Vectorial) que culmina con la publicación, junto con Corinna Cortés en 1.995, de “Support-Vector Networks”, que es la descripción de una máquina de aprendizaje para problemas de clasificación de dos gruops de datos. |
1.997 | ![]() ![]() Jürgen Schmidhuber Sepp Hochreiter |
Conocian el problema de aprender a almacenar información a lo largo de intervalos de tiempo, ya que Hochreiter lo había estudiado en 1.991 y publican LSTM “Long Short-Term Memory”, un red recurrente con memoria a corto plazo. |
1.997 |
Mike Schuster y Kuldip K. Paliwal |
Publican BRNN (Bidirectional Recurrent Neural Networks). La idea básica es conectar dos capas ocultas de direcciones opuestas a la misma salida. Con esta estructura, la capa de salida puede obtener información de estados pasados y futuros. |
1.997 |
David E. Meyer |
Publican “EPIC architecture for cognition and performance with application to human–computer interaction”. EPIC es (Executive Process-Interactive Control) una arquitectura que modela el desempeño humano con procesadores en paralelo. Pertenece al modelo simbólico cognitivo |
1.998 |
Yann LeCun, León Bottou, Yoshua Bengio y Patrick Haffner |
Lenet fue la primera red convolucional aplicada en la banca para reconocer números escritos a mano en cheques digitalizados. La capacidad de procesar imágenes de mayor resolución requiere capas más grandes por lo que esta técnica se ve limitada por la capacidad de recursos de computación. |
1.999 |
Lewis, R.L. |
Propone un modelo simbólico computacional cognitivo. |
2.000 |
Felix Gers |
Mejora el modelo LSTM de J. Schmidhuber y S. Hochreiter |
2.000 | Honda | Presentan la primera versión de ASIMO (Advanced Step in Innovative Mobility), un robot humanoide bípedo que camina, transporta peso, sube y baja escaleras, reconoce gestos humanos, juega al futbol y otras muchas cosas más. |
2.002 |
Stephen Wolfram |
Publica un contrevertido libro, para algunos, sobre autómatas celulares titulado “New Kind of Science” (Un nuevo tipo de ciencia). |
2.005 |
Inés Couso Blanco Luciano Sánchez Ramos |
Destacar sus trabajos en International Journal of Approximate Reasoning desde 2.005. |
2.007 | TOSY Robotics | Presentan la primera versión de TOPIO (TOSY Ping Pong Playing Robot), un robot humanoide diseñado para jugar al ping-pong |
2.014 | ![]() |
El desarrollo del programa “Eugene Goostman” se realizó en San Petersburgo en 2.001 por Vladimir Veselov, Eugene Demchenko y Sergey Ulasen, y desde 2.005 ha intentado superar la prueba de Turing. En 2.014 “Eugene” simula ser un niño de 13 años que es sometido a la prueba y convence al 33% de los jueces de que es humano. Los cineofilos recordaran la prueba de empatía de “Voigt-Kampff” que “no” pasa el replicante en Blade Runner (1.982). En 9 años han llegado al 33% de efectividad, siendo corservador, ¿podemos plantearnos que una entrevista de trabajo en 2.060 nos la pueda realizar una máquina?, ¡suponiendo que el planeta pase la prueba del cambio climático!. |
Um panorama dos enormes avanços existentes no campo da cibernética, do controle em todos os campos, incluído o mental segundo programações precisas de direção e controle mental. Um desafio para estudantes e estudiosos da psicologia , especialmente em sua versão da bio-psicologia e da diversas formas de aprendizagem. Certamente chegar a entender a importância dos centenar de pesquisadores aqui mencionados exige leituras prévias sobre este tipo de conhecimentos. Vale este esforço.