Sunday, March 29, 2015

Conferencia de Dartmouth

La Conferencia de Dartmouth

Fue celebrada en la universidad Dartmouth College, Hanover (Estados Unidos), con la idea de discutir sobre la posibilidad de que las maquinas pudieran tener inteligencia artificial.


Su objetivo principal era la idea de construir una máquina que lograra hacer más que solo cálculos numéricos, y que lograra hacer acciones consideradas inteligentes.

Los participantes de esta conferencia tenían la idea de que el pensamiento humano podía ser descrito de forma precisa, esto para ellos abrió la posibilidad de que, en el futuro,  las maquinas tuvieran la capacidad de simular el pensamiento humano.

Previo a la conferencia se elaboró una propuesta de subvención a la fundación Rockefeller que decía:

“Proponemos que se lleve a cabo una revisión de la inteligencia artificial de dos meses y diez hombres en el verano de 1956 en el Dartmouth College de Hanover, New Hampshire. La revisión es para seguir adelante sobre la base de la conjetura de que cualquier aspecto del aprendizaje o cualquier otro rasgo de inteligencia puede en principio ser descrita de forma tan precisa que puede hacerse que una máquina lo simule”


Los organizadores de esta conferencia fueron John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.


ORGANIZADORES:

John McCarthy




Propuso el nombre de Inteligencia Artificial para esta nueva área del conocimiento, y estudiaba sistemas capaces de efectuar razonamientos de sentido común.

Fue educado en el pensamiento lógico, y muy aficionado a los libros, mientras trabajaba como carpintero, pescador, organizador sindical e inventor. En 1948 el joven McCarthy se licenció en Matemáticas en el Instituto de Tecnología de California, doctorándose en la misma disciplina en 1951, en la Universidad de Princeton. 
Tras cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en la Universidad de Stanford en 1962, en la que permaneció como docente e investigador hasta su retiro a finales del 2000. Tras su jubilación fue nombrado Profesor Emérito de dicha universidad.
McCarthy inventó el lenguaje de programación LISP y publicó su diseño en Comunicaciones del ACM en 1960.
En 1957, John McCarthy fundó, junto con Marvin Minsky, el Laboratorio de Inteligencia Artificial del MIT, y ayudó a motivar la creación del Proyecto MAC. 
En 1962 se marchó de él, y se fue a la Universidad de Stanford, en la que, en 1963, fundó también el respectivo Laboratorio de IA, que durante muchos años fue un rival amistoso del Proyecto MAC.
En 1961 fue el primero en sugerir públicamente (en un discurso para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).
La idea de una computadora o un sistema informático como servicio era muy popular a fines de la década del 60, pero se desvaneció hacia mediados de los 70 cuando quedó claro que el hardware, software y las tecnologías de telecomunicación simplemente no estaban preparadas. Sin embargo, desde el 2000, la idea reapareció en diferentes formas.

Además del Premio Turing, McCarthy recibió otras varias distinciones, y fue miembro de distintas academias. En 2010 ingresó en el llamado "IEEE Intelligent Systems Hall of Fame".

Marvin Minsky



















Fundador del laboratorio de Inteligencia Artificial del MIT. Trabajaba sobre razonamientos analógicos de geometría. Tras acabar la secundaria se unió a la Marina de los Estados Unidos, luego de dos años de servicio, entra en la Universidad de Princeton donde se graduaría en 1950. En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).

Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC "Stochastic Neural Analog Reinforcement Calculator", el primer simulador de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.
Minsky fue consejero en la película 2001: Una odisea del espacio y hay referencias a él tanto en la película como en el libro. Durante la filmación Minsky casi murió en un accidente.

Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael Crichton durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y concibió los dinosaurios como clones.

Claude Shannon












Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.

En 1932 ingresó en la Universidad de Michigan y en 1936 obtuvo los títulos de ingeniero eléctrico y matemático.

En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT).

En su tesis doctoral en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas.

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores; Warren Weaver, quien escribió una extensa y aclaradora introducción a su obra La teoría matemática de la comunicación y muchos otros más.

Durante este período Shannon trabajó en muchas áreas, y lo más notable fue todo lo referente a la teoría de la información, que se publicó en 1948 con el nombre de Una teoría matemática de la comunicación. En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras detelevisión, etcétera) pueden medirse, y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal. Demostró también que la información se puede transmitir sobre un canal si y solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.
En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.

Nathaniel Rochester











Comenzó a trabajar con IBM en Noviembre de 1948 como profesor asociado. 

Fue uno de los integrantes del equipo 701. Planeó, desarrolló y construyó para IBM el 701, junto con otros colaboradores.

En 1955 IBM organizó un grupo de estudio sobre reconocimiento de patrones, teoría de información y teoría de cambio de circuitos, liderada por Rochester.

En 1959, su primer computador que operaba con transistores y que alcanzaba 229.000 cálculos por segundos: el IBM 7090.

En la década de 1960, Rochester continuó trabajando en IBM, dirigiendo una investigación en criogenia y circuitos de diodo túnel. Luego se unió al DATA SYSTEM DIVISION  de IBM y desarrollo lenguajes de programación y logró avances en las ciencias computacionales.


HECHOS OCURRIDOS EN LA CONFERENCIA

-       Uno de los acuerdos logrados fue llamar esta nueva disciplina “Inteligencia Artificial”, propuesta por John McCarthy.
-       Todo aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que resulte factible construir una máquina que los simule.
-       Los Profesores de psicología Allen Newell y Herbert Simon habían estado trabajando en un programa de computadora que realizara operaciones similares a las del pensamiento humano.
-       Marvin Minsky dijo: “Algunos de nosotros acudimos con grandes ideas de cómo hacer cosas con las máquinas, pero los únicos que para aquellos momentos tenían una idea clara de lo que era un programa, así como lo que esto significaba, y al mismo tiempo, los únicos que realmente presentaron un programa real que fuera capaz de realizar algo similar a lo que constituye un proceso humano superior fueron Newell y Simon; mientras los demás hablábamos, ellos habían alcanzado ya muchas cosas”
-       Herbert Simon comentó: “La conferencia se dispersó en todas direcciones. Ellos no querían recibir nada de nosotros (Simon & Newell); y nosotros, por supuesto, nada de ellos, pues teníamos algo que enseñarles. En cierto sentido, lo más gracioso de todo esto fue que ya habíamos realizado el prototipo de lo que ellos estaban investigando, y que no le prestaran atención. Pero esto no tiene nada de excepcional: las personas desconfían siempre de lo que ellas mismas no han inventado.”
-       A partir de la conferencia de Darmouth, casi todas las autoridades en Inteligencia Artificial, procuran producir en una computadora un resultado de salida, que en caso de ser expuesto  por seres humanos, se considerará inteligente.
-       La definición que dio Marvin Minsky sobre la Inteligencia Artificial fue: "La inteligencia artificial es la ciencia de hacer máquinas que hagan cosas que requerirán inteligencia si las hicieran los hombres"

No comments:

Post a Comment