LA MIRADA INCÓMODA

“¿Heredarán los robots la Tierra? Sí, pero serán nuestros hijos”: Marvin Minsky.

Por Alfredo César Dachary – cesaralfredo552@gmail.com

En 1956 se celebró la Conferencia de Dartmouth, en Hanover, Estados Unidos, con la participación de diez científicos, para discutir acerca de las máquinas y sus posibilidades de comportarse de manera inteligente.

Había otro objetivo en la Conferencia, que era construir una máquina que fuera capaz de realizar funciones que cayeran fuera del puro calculo numérico, para sacar a las máquinas fuera del uso exclusivo de calculadoras, o sea, que llevasen a cabo acciones inteligentes.

Los participantes de la Conferencia partían de la base de que el pensamiento podría tener lugar fuera de la mente humana y podría ser entendido de una manera formal y que el instrumento para llevarlo a cabo era la computadora digital.

Para hacer posible la Conferencia, la Fundación Rockefeller aportó 7,500 dólares y otros aportes externos, aún incipientes para los grandes proyectos.

Entre los científicos participantes estaba John McCarthy, que inventó el lenguaje de programación LISP y en 1957 junto a Marvin Minsky fundaron el Laboratorio de Inteligencia Artificial del MIT y ayudaron a la creación del proyecto MAC.

En 1961, predijo que los servicios de las computadoras se venderían en el futuro como el agua y la luz. La computación tuvo un buen inicio en los 60’, luego se frenó en los 70’, quedó claro que no se había trabajado en la creación del Hardware y el Software, pero se recuperó en el 2000.

Minsky fue consejero de la película Odisea del Espacio y además sugirió la trama de la película Jurassic Park.

Claude Shannon era científico de los Laboratorios Bell y realizó importantes avances en el campo computacional en compañía de Harry Nyquist, Walter Houser Brattain y otros, construyendo computadoras bases en relevadores que eran ya en esa época elementos antiguos.

Entre los hechos relacionados con la conferencia tenemos que se aceptó el nombre de Inteligencia Artificial (IA) propuesto por John McCarthy.

Allen Newell y Herbert Simon eran psicólogos y en esa época ya tenían proyectos para la aplicación en la computación. Los científicos no atendieron los grandes avances y no valoraron a los psicólogos vanguardistas.

Marvin Minsky puso el nombre y le dio la definición a la IA, al sostener que la IA es la ciencia de hacer máquinas que hagan cosas que requerirían inteligencia si la hicieran los hombres.

Pese a estos datos no existe una historiografía activa respecto de la informática, en cambio sí se construyó un gran relato que la tematizaba a partir de una secuencia de hechos, que revisten el estatuto de “catálogo oficial”.

Este relato está al margen de los contextos sociales, económicos y políticos, a partir de un principio “falso” de neutralidad de la técnica, algo que en el siglo XXI se caerá cuando las grandes tecnológicas avancen sobre la nueva riqueza los datos.

En 1623 Wilhelm Schickard crea la primera calculadora, pocos años después en 1642 Blaise Pascal crea un calculador de uso práctico, que fue un gran avance en los cálculos.

1694, Gottfried Leibniz logró una máquina más compleja que permitía realizar las multiplicaciones.

En 1820, Charles Babbage crea la máquina para realizar cálculos diferenciales y en 1834 la máquina analítica, que permitía como la anterior introducir datos y extraer resultados.

En 1854, George Boole plantea la posibilidad de codificar todas las operaciones con ayuda de fórmulas de dos datos “0-1”, como lo es hoy la computación.

1943, Ava Lovelace escribe los primeros artículos partiendo de los trabajos de Federico Menabrea, el principio del algoritmo, a partir del cuales se ejecutan una serie de instrucciones, base de las ciencias del cálculo.

En la década de los 50´aparece Steve Jobs, creador excepcional con aurea mítica, y fue quizás el que logró el mayor avance tecnológico a partir del móvil, con conexión continua a internet.

Después de los 70´, le siguen Bill Gates, Mark Zuckerberg y Elon Musk, cuya falsa narrativa hace de que sus descubrimientos o aportaciones tengan su origen en una “inocencia virginal”, querer desmarcar sus nuevas tecnologías aplicadas de un “renacer” del nuevo capitalismo.

Estos líderes de las nuevas tecnologías pretenden cambiar el mundo para bien y caen como la mayoría bajo la idea de Progreso, que viene del siglo XVIII, y esto emerge en el Silicon Valley como algo “casual”. 

De allí que las invenciones pueden ser analizadas desde tres ángulos diferentes.

Una primera, la más simple plantea una verdadera visión neutra, que es inviable, aduciendo que permite mejorar el desarrollo técnico, para saltar a otra nueva revolución industrial.

La segunda, que creemos es la que más se acerca a una nueva realidad, parte de una verdadera colonización feudal colectiva de científicos e ingenieros para cumplir la producción de determinadas industrias.

El tercer enfoque es desde el ángulo del léxico, ya que se genera una neuro lengua que acompaña estas transformaciones y determinan estas representaciones colectivas.

La vocación de la informática en la gran parte del siglo XX fue para conservar y manipular información, lo que restringió la influencia de lo que se venía gestando desde la red de internet a nuevos programas que terminan a comienzos del siglo XXI colonizando el pensamiento humano a partir de los “datos”, que nosotros mismos generamos.

Los antecedentes de las empresas y los científicos en occidente y especialmente en Estados Unidos, se han generado a partir de una alianza entre científicos, universidades y oficinas del Estado que requerían alguna nueva tecnología para cuestiones muy concretas.

Así tenemos en los orígenes de esta relación, a fines del siglo XIX, que en 1888 la Oficina del Censo planteó la necesidad de una máquina para hacer rápido el censado de los miles de inmigrantes que llegaban a Estados Unidos. Allí emergió la máquina de cálculo por fichas perforadas vigentes hasta los 80’ del siglo XX que fue muy efectiva, la cual fue diseñada por el ingeniero Herman Hollerith, que en 1896 fue patentada y así nació la empresa IBM, vigente hasta hoy.

El gran avance práctico se dio durante la segunda guerra mundial cuando Alan Turing, creó Enigma, la máquina para traducir lo codificado por los alemanes y así poder conocer con antelación los planes del enemigo. El genio de Turing no aprovechado más por una persecución en su contra, por su opción de género, algo muy castigado en la Inglaterra de mitad del siglo XX, persecución y castigo que lo llevaron al suicidio.

Al finalizar la contienda en 1945, a los científicos John W. MauChly y John P. Eckert, los reclutó el gobierno de Estados Unidos y les encargó los cálculos balísticos sobre base de posibilidades, que implicaba una dimensión política de las nuevas armas, que juegan el papel fundamental en el potencial conflicto nuclear durante toda la guerra fría.

En las últimas décadas del siglo XX, se impuso la tendencia programática de gerenciar con eficacia sectores de la actividad, con ayuda de estos nuevos sistemas e instrumentos, lo cual transformará y permitirá relanzar a la emergente industria informática y sus aplicaciones.

En la década de los 80’ se da un aporte fundamental para la ampliación de este mundo emergente ya que el sonido se perfecciona rápidamente y esto se refleja en el crecimiento de la industria de la animación.

En la última década del siglo XX, en los 90´, se da la emergencia masiva de internet que comienza a ser un fenómeno mundial, o sea, se inicia la colonización de nuestras mentes a partir de una fórmula mágica, una red que responde a nuestras dudas y necesidades y nosotros planteamos nuestras ideas, que serán el oro del siglo XXI, la generación de la industria de la vida o de los datos.

En el nuevo siglo se da la primera gran crisis de esta industria del punto cero, lo cual llevó a la quiebra a las que aún estaban poco consolidadas y, a la vez, se terminan de conformar el grupo de las nuevas grandes empresas líderes de esta revolución tecnológica.

Mientras la IA seguía siendo una idea, pero ya aterrizada por varios centros de investigación y aplicada a cosas concretas, desde los traductores inteligentes a los GPS que se adecuaban vía satélite a regiones antes sin datos, el internet de las cosas y la necesidad de mejorar la industria de punta de la revolución industrial, la automovilística, la IA se hacía presente sin ser identificada en todos estos procesos y otros más complejos aún y en nuevas áreas, como la biotecnología.

Quizá la IA no sea lo último que nos logre asombrar, puede haber otros sistemas y procesos que aún no están expuestos en la sociedad, pero no debe asustar, ya que la colonización de nuestras mentes por las redes y el control de nuestras ideas por ésta ya es algo naturalmente aceptado, además de cientos de cosas más que no podemos identificar en la cotidianidad.

La sociedad, con pocas excepciones, no ha cuestionado la 4ª. Revolución Industrial y todas sus consecuencias, ¿por qué será?, quizás parte de la respuesta esté en la historia de las religiones que dominaron y dominan gran parte del mundo, como un hecho que se acepta por fe y no por pruebas.

This div height required for enabling the sticky sidebar