La Conferencia de Dartmouth
Fue celebrada en la universidad
Dartmouth College, Hanover (Estados Unidos), con la idea de discutir sobre la posibilidad
de que las maquinas pudieran tener inteligencia artificial.
Su objetivo principal era la idea de
construir una máquina que lograra hacer más que solo cálculos numéricos, y que
lograra hacer acciones consideradas inteligentes.
Los participantes de esta conferencia tenían la idea de que el pensamiento humano podía ser descrito de forma precisa, esto para ellos abrió la posibilidad de que, en el futuro, las maquinas tuvieran la capacidad de simular el pensamiento humano.
Previo a la conferencia se elaboró una
propuesta de subvención a la fundación Rockefeller que decía:
“Proponemos que se lleve a cabo una revisión de la inteligencia artificial
de dos meses y diez hombres en el verano de 1956 en el Dartmouth College de
Hanover, New Hampshire. La revisión es para seguir adelante sobre la base de la
conjetura de que cualquier aspecto del aprendizaje o cualquier otro rasgo de
inteligencia puede en principio ser descrita de forma tan precisa que puede
hacerse que una máquina lo simule”
Los organizadores de esta conferencia
fueron John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.
ORGANIZADORES:
John McCarthy
Propuso el nombre de Inteligencia Artificial para esta nueva área
del conocimiento, y estudiaba sistemas capaces de
efectuar razonamientos de sentido común.
Fue educado en el pensamiento lógico,
y muy aficionado a los libros, mientras trabajaba como carpintero, pescador,
organizador sindical e inventor. En 1948 el joven McCarthy se licenció en
Matemáticas en el Instituto de Tecnología de California, doctorándose en
la misma disciplina en 1951, en la Universidad de Princeton.
Tras
cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser
profesor a tiempo completo en la Universidad de
Stanford en 1962, en la que permaneció como docente e investigador
hasta su retiro a finales del 2000. Tras su jubilación fue
nombrado Profesor Emérito de dicha universidad.
McCarthy inventó el lenguaje de
programación LISP y publicó su diseño en Comunicaciones del
ACM en 1960.
En 1957, John McCarthy fundó, junto
con Marvin Minsky, el Laboratorio de Inteligencia Artificial
del MIT, y ayudó a motivar la creación del Proyecto MAC.
En 1962 se
marchó de él, y se fue a la Universidad de Stanford, en la que, en 1963,
fundó también el respectivo Laboratorio de IA, que durante muchos años fue un
rival amistoso del Proyecto MAC.
En 1961 fue el primero en
sugerir públicamente (en un discurso para celebrar el centenario del MIT)
que la tecnología de tiempo compartido de las computadoras podría
conducir a un futuro en el que el poder del cómputo e incluso aplicaciones
específicas podrían ser vendidas como un servicio (como el agua o
la electricidad).
La idea de una computadora o un
sistema informático como servicio era muy popular a fines de la década del 60,
pero se desvaneció hacia mediados de los 70 cuando quedó claro que el hardware,
software y las tecnologías de telecomunicación simplemente no estaban
preparadas. Sin embargo, desde el 2000, la idea reapareció en diferentes
formas.
Además del Premio Turing,
McCarthy recibió otras varias distinciones, y fue miembro de distintas
academias. En 2010 ingresó en el llamado "IEEE Intelligent Systems Hall of
Fame".
Marvin Minsky
Fundador del laboratorio de Inteligencia Artificial del
MIT. Trabajaba sobre razonamientos analógicos de geometría. Tras acabar la secundaria se unió a
la Marina de los Estados Unidos, luego de dos años de servicio, entra en
la Universidad de Princeton donde se graduaría en 1950. En la
actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y
las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).
Minsky ha contribuido en el
desarrollo de la descripción gráfica simbólica, geometría
computacional, representación del conocimiento, semántica
computacional, percepción mecánica, aprendizaje simbólico y conexionista. En
1951 creó SNARC "Stochastic Neural Analog Reinforcement
Calculator", el primer simulador de redes neuronales.
Escribió el libro
"Perceptrones" (con Seymour Papert), que se convirtió en el
trabajo fundacional en el análisis de redes neuronales artificiales. Su
crítica de la investigación poco rigurosa en el campo ha sido indicada como
responsable de la desaparición virtual de la investigación académica
en redes neuronales artificiales durante los años 70.
Minsky fue consejero en la película 2001:
Una odisea del espacio y hay referencias a él tanto en la película como en
el libro. Durante la filmación Minsky casi murió en un accidente.
Minsky también es responsable de
sugerir la trama de "Jurassic Park" a Michael Crichton durante
un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos
como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina
y concibió los dinosaurios como clones.
Claude Shannon
Los primeros años de su vida los pasó en Gaylord, donde se graduó de la
secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las
cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de
ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en
sus investigaciones.
En 1932 ingresó en la Universidad de Michigan y en 1936 obtuvo los títulos
de ingeniero eléctrico y matemático.
En 1936 aceptó la posición de asistente de investigación en el departamento
de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT).
En su tesis doctoral en el MIT, demostró cómo el álgebra booleana se podía
utilizar en el análisis y la síntesis de la conmutación y de los circuitos
digitales. La tesis despertó un interés considerable cuando apareció en 1938 en
las publicaciones especializadas.
Shannon pasó quince años en los laboratorios Bell, una asociación
muy fructífera con muchos matemáticos y científicos de primera línea
como Harry Nyquist, Walter Houser Brattain, John
Bardeen y William Bradford Shockley, inventores
del transistor; George Stibitz, quien construyó computadoras basadas
en relevadores; Warren Weaver, quien escribió una extensa y aclaradora
introducción a su obra La teoría matemática de la comunicación y
muchos otros más.
Durante este período Shannon trabajó en muchas áreas, y lo más
notable fue todo lo referente a la teoría de la información, que se
publicó en 1948 con el nombre de Una teoría matemática de la
comunicación. En este trabajo se demostró que todas las fuentes de
información (telégrafo eléctrico, teléfono, radio, la gente que
habla, las cámaras detelevisión, etcétera) pueden medirse, y que
los canales de comunicación tienen una unidad de medida similar,
determinando la velocidad máxima de transferencia o capacidad de canal.
Demostró también que la información se puede transmitir sobre un canal si y
solamente si la magnitud de la fuente no excede la capacidad de transmisión del
canal que la conduce, y sentó las bases para la corrección de errores,
supresión de ruidos y redundancia.
En el área de las computadoras y de la inteligencia
artificial, publicó en 1950 un trabajo que describía la programación
de una computadora para jugar al ajedrez, convirtiéndose en la base de
posteriores desarrollos.
Nathaniel Rochester
Comenzó a trabajar con IBM en Noviembre de 1948 como
profesor asociado.
Fue uno de los integrantes del equipo 701. Planeó,
desarrolló y construyó para IBM el 701, junto con otros colaboradores.
En 1955 IBM
organizó un grupo de estudio sobre reconocimiento de patrones, teoría de
información y teoría de cambio de circuitos, liderada por Rochester.
En 1959, su primer computador que operaba con
transistores y que alcanzaba 229.000 cálculos por segundos: el IBM 7090.
En la década
de 1960, Rochester continuó trabajando en IBM, dirigiendo una investigación en
criogenia y circuitos de diodo túnel. Luego se unió al DATA SYSTEM
DIVISION de IBM y desarrollo lenguajes
de programación y logró avances en las ciencias computacionales.
HECHOS OCURRIDOS EN LA CONFERENCIA
- Uno de los acuerdos logrados fue llamar esta nueva disciplina
“Inteligencia Artificial”, propuesta por John McCarthy.
- Todo
aspecto del aprendizaje o cualquier otra característica de la inteligencia se
puede describir con tanta precisión que resulte factible construir una máquina
que los simule.
- Los Profesores de psicología Allen Newell y Herbert Simon habían estado
trabajando en un programa de computadora que realizara operaciones similares a
las del pensamiento humano.
- Marvin Minsky dijo: “Algunos de nosotros acudimos con grandes ideas de
cómo hacer cosas con las máquinas, pero los únicos que para aquellos momentos
tenían una idea clara de lo que era un programa, así como lo que esto
significaba, y al mismo tiempo, los únicos que realmente presentaron un
programa real que fuera capaz de realizar algo similar a lo que constituye un
proceso humano superior fueron Newell y Simon; mientras los demás hablábamos,
ellos habían alcanzado ya muchas cosas”
- Herbert Simon comentó: “La
conferencia se dispersó en todas direcciones. Ellos no querían recibir nada de
nosotros (Simon & Newell); y nosotros, por supuesto, nada de ellos, pues
teníamos algo que enseñarles. En cierto sentido, lo más gracioso de todo esto
fue que ya habíamos realizado el prototipo de lo que ellos estaban
investigando, y que no le prestaran atención. Pero esto no tiene nada de
excepcional: las personas desconfían siempre de lo que ellas mismas no han
inventado.”
- A partir de la conferencia de
Darmouth, casi todas las autoridades en Inteligencia Artificial, procuran
producir en una computadora un resultado de salida, que en caso de ser
expuesto por seres humanos, se
considerará inteligente.
- La definición que dio Marvin Minsky sobre la Inteligencia Artificial
fue: "La inteligencia
artificial es la ciencia de hacer máquinas que hagan cosas que requerirán
inteligencia si las hicieran los hombres"
No comments:
Post a Comment