*

X
Los últimos hallazgos relacionados a este mecanismo redimensionan los adelantos tecnológicos de la antigua Grecia

Entre los restos de un naufragio, aquella cosa parecía tan sólo un bulto corroído sin importancia. Fue encontrado en las costas de Grecia, cerca de Anticitera. Luego de un análisis más detallado de la pieza, el arqueólogo Valerios Stais declaró en 1902 que se trataba del mecanismo de alguna clase de aparato de medición astrológica similar a un reloj; hoy es conocido como el mecanismo de Anticitera.

Stais perteneció a la minoría que defendía esta teoría; el resto de los estudiosos aseguraba que algo tan sofisticado no podía pertenecer a ese período. Era sencillamente imposible; esos mecanismos habían comenzado a usarse hasta mil 500 años después.

En 1951 el historiados británico Derek John de Solla Price comenzó un exhaustivo estudio del descubrimiento y fue hasta 1974 que pudo declarar que, en efecto, aquel aparato fue creado en la antigua Grecia entre los años 150 y 100 a. C. Concluyó esto luego de aplicar engranajes de bronce conectados a una manivela que hizo empatar con una de las carátulas del mecanismo. Diseñó los engranajes basándose en el sistema astronómico de la época, el ciclo metónico, un patrón de 235 meses que permitía a los astrónomos predecir eclipses.

En el 2009 se terminaron de identificar todas las piezas del aparato y se presentó un modelo virtual:

Al entender el funcionamiento total del mecanismo se pudo confirmar que era capaz de predecir la posición de los planetas con los que estaban familiarizados los griegos (Mercurio, Venus, Marte, Júpiter y Saturno), además de trazar la posición del Sol y las fases de la Luna, esto último aprovechando una piedra pulida con blanco y negro que las mostraba.
Andrew Carol, ingeniero de Apple, construyó un modelo a (gran) escala del mecanismo para enseñar su funcionamiento, utilizando piezas de LEGO:

En junio del 2016 un equipo internacional de expertos reveló nueva información derivada de pequeñas inscripciones en griego antiguo encontradas en algunas partes del mecanismo demasiado pequeñas como para ser leídas a simple vista, pues algunas letras medían poco más de 1mm. Hasta que llegó la tecnología de escáner adecuada resultaron legibles los más de 35 mil caracteres que explican el funcionamiento del dispositivo.

El mensaje comprueba las teorías sobre su funcionamiento, a la par de añadir un par de detalles fascinantes: el primero es que el texto habla sobre la llegada de algunos eclipses por color, lo que debe de significar que se les confería cierto valor adivinatorio. El segundo: parece que el dispositivo fue construido en la isla de Rodas por más de una persona y que no era el único de su tipo. Los antiguos griegos tenían conocimientos astronómicos y habilidades mecánicas mucho más adelantadas de lo que sospechábamos.

El chatbot Tay de Microsoft es un buen ejemplo de lo que puede pasar cuando un bot es liberado en la selva digital

Microsoft, Facebook y otras compañías están apostando fuertemente por los chatbots, algoritmos que conversan y aprenden de sus conversaciones y los cuales podrían reemplazar a humanos para dar ciertos servicios, desde asistencia técnica, hasta terapia. Pese a ambiciosas proyecciones, estos bots siguen teniendo sus problemas en la vida real. 

Hace unos meses, Microsoft lanzó un chatbot que estaba programado para conversar como si fuera un millennial en Twitter, específicamente una chica adolescente. Pero poco después de empezar a interactuar en Twitter, el bot, llamado Tay, empezó a comportarse como neonazi y a publicar comentarios poco menos que desastrosos para la compañía de software. 

Tay debía de imitar a personas de 18 a 24 años, pero algunos usuarios del foro de hacktivistas y pranksters 4chan subvirtieron al chatbot y lo llevaron a lugares oscuros (que son parte también de la Red). En sólo 16 horas en línea Tay tuiteó frases como "Odio a las malditas feministas, ojalá se pudran en el infierno" o "Hitler no hizo nada malo". Entre otras cosas, el chatbot negó el holocausto, acusó a George W. Bush de los atentados del 11S e insultó a diversos usuarios. 

Según Jo Allison, de Canvas8, los chatbots o programas IA "tienen gran potencial pero siempre y cuando logren entender el lenguaje contextualmente. Y aprendan a no dejarse engañar y promover el genocidio". Más allá de que tenemos bots que empiezan a escribir poesía, a dar consejos de vida y demás, aún son demasiado inocentes o ingenuos en lo que concierne a decodificar las sutilezas y los dobles sentidos del lenguaje humano.