Science">
Nothing Special   »   [go: up one dir, main page]

1.1 Historia de La IA

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 8

Universidad de Guadalajara

Centro Universitario de los Valles

Carrera
Mecatrónica

INICIOS DE LA INTELIGENCIA ARTIFICIAL IA

Presentado por:
Claudio Antonio Nava Bernal
218332019

Asignatura
INTELIGENCIA ARTIFICIAL (IA)

Profesor
Salvador Cervantes Alvares

Ameca, Jalisco, 23 de marzo del 2023

1
INDICE

Génesis de la inteligencia artificial (1943-1955).........................................................................3


Nacimiento de la inteligencia artificial (1956)............................................................................3
Entusiasmo inicial, grandes esperanzas (1952- 1969).................................................................3
Una dosis de realidad (1966-1973)..............................................................................................4
Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979)......................................5
La IA se convierte en una industria desde 1980..........................................................................6
Regreso de las redes neuronales (desde 1986............................................................................6
IA se convierte en una ciencia (desde 1987................................................................................7
Emergencia de los sistemas inteligentes (desde 1995.................................................................7
conclusión....................................................................................................................................8

Génesis de la inteligencia artificial (1943-1955)


La inteligencia artificial (IA) tuvo sus inicios en la década de1940 y 1950
cuando Alan Turing publicó un artículo titulado "Computing Machinery and

2
Intelligence". En el cual propuso la famosa prueba de Turing en el cual se
cuestiona si una máquina pudiera ser considerada inteligente.

Sin embargo, en 1943 Warren McCulloch y Walter Pitts partieron de la fisiología


básica y funcionamiento de las neuronas, el análisis lógico proposicional de
Russell y Whitehead y la teoría de la computación de Turing y propusieron el
modelo neuronal artificial en el cual cada una de las neuronas podían estar
activas o inactivas y el estado de estas dependía de la estimulación de las
neuronas vecinas. Es por este hecho se les reconoce como los autores del
primer trabajo de IA.

Otro echo que cabe resaltar es la construcción del SNARC la primera


computadora basada en una red neuronal en 1951la cual constaba de 40
neuronas y 3000 válvulas de vacío y un mecanismo de piloto automático.

Nacimiento de la inteligencia artificial (1956)


Después de que John McCarthy se graduara organizo un taller en Darmounth
con ayuda de Minsky, Claude Shannon y Nathaniel Rochester con el fin de
interesar a los científicos e investigadores en las redes neuronales los
autómatas y el estudio de la inteligencia. A pesar de que el taller no produjo
avances notables, estableció una red de contactos importantes en el campo de
la IA. En este taller se presentó el programa Teórico Lógico (TL) de Allen
Newell y Herbert Simón y demostró ser capaz de resolver teoremas
matemáticos. al final la IA se separó en varias ramas, por mencionar alguna
“teoría de control” que trata de tomar facultades humanas.

Entusiasmo inicial, grandes esperanzas (1952- 1969)


En los primeros años de la Inteligencia Artificial, hubo una serie de logros
notables, a pesar de las limitaciones tecnológicas de aquel momento. Los
investigadores de IA respondieron a los escépticos que afirmaban que "una
máquina nunca podría hacer tareas" demostrando una tarea tras otra. John
McCarthy describe esta época como la era de "¡Mira, mamá, ahora sin
manos!".
Uno de los primeros éxitos fue el sistema de resolución general de problemas,
que fue el primer programa que incorporó el enfoque de "pensar como un ser
humano".

Los avances en este campo llevaron a la formulación de la hipótesis del


sistema de símbolos físicos de Newell y Simon, que afirma que cualquier
sistema que exhiba inteligencia debería operar manipulando estructuras de

3
datos compuestas por símbolos. En IBM, Nathaniel Rochester y sus colegas
desarrollaron A comienzos 1952 algunos de los primeros programas de IA,
incluido un demostrador de teoremas de geometría y un programa de juego de
las damas que eventualmente aprendió a jugar mejor que su creador. John
McCarthy, al mudarse del MIT al Darmouth, hizo tres contribuciones cruciales
en 1958, incluida la definición del lenguaje de programación Lisp, que se
convertiría en el segundo lenguaje dominante en la IA. Estos avances han
llevado a una rica tradición de investigación y desarrollo en el campo de la
Inteligencia Artificial.

Marvin Minsky y John McCarthy son considerados como pioneros de la


Inteligencia Artificial. En 1958, McCarthy publicó un artículo titulado "Programs
with Common Sense" donde describía el Generador de Consejos, un programa
hipotético que se podría considerar como el primer sistema completo de IA.
McCarthy diseñó el programa para buscar soluciones a problemas utilizando el
conocimiento general del mundo y para aceptar nuevos axiomas durante su
funcionamiento, permitiéndole ser competente en nuevas áreas sin necesidad
de reprogramación. Minsky, por su parte, se trasladó al MIT en 1958 y su
colaboración con McCarthy no duró mucho tiempo debido a sus intereses
distintos. Minsky estaba más interesado en hacer que los programas
funcionaran y eventualmente desarrolló un enfoque anti-lógico. McCarthy creó
el Laboratorio de IA en Stanford en 1963 y el trabajo realizado allí hacía énfasis
en los métodos de propósito general para el razonamiento lógico. Minsky
supervisó el trabajo de varios estudiantes en micro mundos limitados, que se
resolvían con programas como SAINT, ANALOGY y STUDENT. El micro
mundo más famoso fue el mundo de los bloques, donde un programa
demostraba inteligencia al manipular bloques sólidos. Estos primeros esfuerzos
en Inteligencia Artificial demostraron la importancia de la representación formal
y explícita del conocimiento y el razonamiento en la construcción de sistemas
inteligentes.

Una dosis de realidad (1966-1973)


La inteligencia artificial (IA) ha sido objeto de muchas predicciones y
expectativas desde sus inicios. Herbert Simon, un investigador de IA, hizo una
predicción audaz en 1957, afirmando que las máquinas serían capaces de
pensar, aprender y crear, y que su habilidad para hacerlo aumentaría
rápidamente hasta que pudieran resolver problemas de la misma magnitud que
la mente humana.

Sin embargo, estas predicciones no se cumplieron exactamente como se


esperaba. La mayoría de los primeros sistemas de IA fallaron en problemas
más variados o difíciles debido a la falta de conocimiento de las materias objeto
de estudio y a la complejidad intrínseca de los problemas que se intentaban
resolver. Por ejemplo, en la traducción automática, se descubrió que se
necesitaba un conocimiento general sobre el tema para resolver ambigüedades
y precisar el contenido de una oración, un ejemplo de esto fue el error en la

4
traducción del ruso a las ingles de la frase «el espíritu es fuerte pero la carne
es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida»
lo que resultó ser una tarea más difícil de lo que se había imaginado pues se
creía que con solo pasar por un diccionario las palabras y traducirlas gramatical
mente sería suficiente.

En 1966, el comité consultivo declaró que no se había logrado una traducción


de textos científicos generales y que no se esperaba obtener una en el futuro
inmediato. Sin embargo, la traducción automática se ha convertido en una
herramienta imperfecta pero ampliamente utilizada. A pesar de estos desafíos
iniciales, la IA ha continuado evolucionando y mejorando, y hoy en día es una
tecnología de gran importancia en muchos campos, incluyendo la medicina, la
robótica, las finanzas y la tecnología de la información.

En 1969, el libro "Perceptrons" de Minsky y Papert demostró que, aunque los


perceptrones podían aprender, su capacidad de representación era muy
limitada. Esto llevó a una disminución en la investigación en redes neuronales,
pero años más tarde, en la década de 1980, los nuevos algoritmos de
aprendizaje de retroalimentación, descubiertos en 1969 por Bryson y Ho,
contribuyeron al resurgimiento de la investigación en este campo.

Sistemas basados en el conocimiento: ¿clave del poder? (1969-


1979)
En la primera década de la investigación en IA, el enfoque estaba en
desarrollar mecanismos de búsqueda de propósito general llamados "métodos
débiles". Estos métodos eran limitados en su capacidad de resolver problemas
complejos. En su lugar, se usaba conocimiento específico del dominio para
resolver casos recurrentes en dominios restringidos. Un ejemplo de este
enfoque es el programa DENDRAL, diseñado en Stanford para inferir
estructuras moleculares a partir de información de espectrómetros de masas.
La versión más simple del programa generaba todas las posibles estructuras
que correspondieran a la fórmula, luego predecía el espectro de masas que se
observaría en cada caso, pero resultó inviable para moléculas grandes, por lo
que los creadores consultaron con químicos analíticos y descubrieron que
buscaban patrones conocidos en el espectro para sugerir estructuras comunes
en la molécula.

DENDRAL fue el primer sistema de conocimiento intenso exitoso, con una base
de conocimiento compuesta por reglas específicas. Luego, se desarrolló el
Proyecto de Programación Heurística (PPH) para aplicar la nueva metodología
de sistemas expertos a otras áreas. Uno de los mayores logros fue el programa
MYCIN, diseñado para el diagnóstico médico, que tenía una base de reglas
obtenidas a través de entrevistas con expertos y reflejaba la incertidumbre
inherente al conocimiento médico. También se demostró la importancia del
conocimiento de dominio en la comprensión del lenguaje natural, con la

5
necesidad de tener un conocimiento general del mundo y un método para
usarlo. Roger Schank, en Yale, inició un debate sobre la comprensión del
lenguaje natural, con un enfoque en la representación y el razonamiento del
conocimiento necesario para la comprensión.

La IA se convierte en una industria desde 1980


La primera aplicación exitosa de sistemas expertos fue la herramienta R1 de
Digital Equipment Corporation en 1982. En 1986, el sistema estaba ahorrando
a la empresa 40 millones de dólares al año, y en 1988, muchas empresas
importantes en Estados Unidos contaban con su propio grupo de Inteligencia
Artificial que utilizaba o investigaba sistemas expertos. En 1981, Japón anunció
el proyecto "Quinta Generación" para construir computadoras inteligentes con
Prolog, mientras que Estados Unidos formó la Microelectronics and Computer
Technology Corporation para mantener la competitividad en IA. Sin embargo,
ambos proyectos no lograron alcanzar sus objetivos.

En el Reino Unido, el informe Alvey restauró el patrocinio en IA. La industria de


IA creció rápidamente, pasando de millones a billones de dólares en 1988. Sin
embargo, después de este período llegó "El Invierno de la IA" que afectó a
muchas empresas que no pudieron desarrollar sus productos prometidos.

Regreso de las redes neuronales (desde 1986


El interés en las redes neuronales comenzó a declinar a finales de los años 70,
pero algunos investigadores continuaron trabajando en el campo. John
Hopfield, un físico, utilizó técnicas de mecánica estadística para analizar las
propiedades de almacenamiento y optimización de las redes en 1982. Por otro
lado, psicólogos como David Rumelhart y Geoff Hinton continuaron con el
estudio de modelos de memoria basados en redes neuronales. La mayor
impulsación en este campo llegó en la década de los 80, cuando por lo menos
cuatro grupos distintos reinventaron el algoritmo de aprendizaje por
retroalimentación, originalmente mencionado en 1969. Este algoritmo se aplicó
a diversos problemas de aprendizaje en informática y psicología y los
resultados publicados en la colección Parallel Distributed Processing en 1986
generaron mucho entusiasmo. Estos modelos de inteligencia artificial
conocidos como "conexionistas" fueron vistos como competidores de los
modelos simbólicos y lógicos propuestos por otras escuelas de pensamiento.
Actualmente, se considera que estas aproximaciones son complementarias en
lugar de competidoras.

6
IA se convierte en una ciencia (desde 1987
En los últimos años, ha habido una revolución en la inteligencia artificial (IA) en
términos de contenido y metodología de trabajo. Se ha pasado a desarrollar
teorías ya existentes en lugar de proponer teorías completamente nuevas,
basarse en teoremas rigurosos y evidencias experimentales en lugar de la
intuición, y demostrar la utilidad de las aplicaciones en el mundo real en lugar
de crear ejemplos de juguete. La IA se basa en parte en una rebelión contra las
limitaciones de otros campos como la teoría de control o la estadística y ahora
abarca estos campos. Se ha abandonado el aislamiento de la IA y se cree que
la inteligencia artificial no debe separarse de la teoría de la información, el
razonamiento incierto, la optimización clásica y el control, o los métodos
formales y el análisis estático. La IA ha pasado a formar parte de los métodos
científicos, con hipótesis que se deben someter a experimentos rigurosos y
resultados que deben analizarse estadísticamente.
El reconocimiento del habla es un buen ejemplo de la tendencia actual en la IA.
En los años 70, se probaron una gran variedad de arquitecturas y enfoques,
muchos de ellos ad hoc y frágiles, probados solo en pocos ejemplos
especiales. Actualmente, los modelos basados en modelos de Markov ocultos
(MMO) dominan el área. Estos modelos se basan en una rigurosa teoría
matemática y se han generado a través de un proceso de aprendizaje en
grandes corpus de datos de lenguaje reales, lo que garantiza una funcionalidad
robusta. La tecnología del habla y el reconocimiento de caracteres manuscritos
están en transición hacia una aplicación generalizada en la industria y el
consumo.
Las redes neuronales también siguen esta tendencia, pasando de trabajar con
la idea de descubrir las diferencias entre las redes neuronales y otras técnicas
en los años 80, a un enfoque en la utilización de grandes cantidades de datos y
una optimización rigurosa en la actualidad. La tecnología de IA está cada vez
más integrada en la sociedad, con aplicaciones en áreas como la robótica, el
reconocimiento de imágenes y audio, el procesamiento del lenguaje natural, y
la toma de decisiones.

Emergencia de los sistemas inteligentes (desde 1995


El texto describe el progreso y el interés reciente en el campo de la inteligencia
artificial en la búsqueda de soluciones para el problema del "agente total". El
trabajo de Allen Newell, John Laird y Paul Rosenbloom en SOAR es
mencionado como el ejemplo más destacado de una arquitectura completa de
agentes. Este movimiento está impulsado por el "movimiento situado", que
tiene como objetivo comprender cómo los agentes inteligentes interactúan en
entornos reales y cómo pueden ser mejorados mediante sensores de entrada
continua.

7
Internet se ha convertido en un medio crucial para los agentes inteligentes y la
IA se ha incorporado en muchas aplicaciones en línea. La tecnología de IA es
la base de herramientas en línea como motores de búsqueda, sistemas de
recomendación y la construcción de portales web. Además, la perspectiva de
los agentes se ha adoptado en la literatura de texto de IA y se ha llegado a la
conclusión de que los subcampos de la IA deben ser reorganizados para
permitir una interrelación más efectiva de sus resultados.

La construcción de agentes completos ha llevado a una mayor comprensión de


las limitaciones de los sistemas sensoriales y ha generado un acercamiento
entre la IA y otras disciplinas como la teoría de control y la economía. En
resumen, el texto muestra el avance en el campo de la inteligencia artificial y el
interés en la búsqueda de soluciones para el problema del "agente total".

Conclusión
Pese a que en la actualidad se cuenta con sistemas de IA bastante avanzados
a comparación de los sistemas y programas pioneros la inteligencia artificial se
encuentra en un nivel muy bajo de lo que pudiese llegar a ser sin embargo se
presenta un entorno muy prometedor para los próximos años. Quisa mis ojos
no lo logren ver, pero tengo esperanza de que estos sistemas nos logren
facilitar la vida de manera sorprendente.

También podría gustarte