Llevaba yo desde octubre sin hacer un «lecturas» :-S.
El primer libro leído a caballo de 2024 y 2025 es un clásico de la literatura española del siglo XX, Nada, de Carmen Laforet. Uno no tenía ni idea del libro, pero salió un día en las ofertas de Amazon, y cayó. Duele de adolescencia, hambre de posguerra y claustrofobia, y huele a rancio, a naftalina y humedad de la Barcelona de los años 40. Igual soy yo, pero tengo la impresión de que la prosa de la autora va evolucionando a medida que avanzan las trescientas páginas del libro: muy bien ya desde el inicio, brillantísima hacia el final. Extremadamente recomendable, pero para momentos en los que no esté uno bajo de ánimo.
El segundo libro en caer fue A view from the stars, de Cixin Liu, y el que menos me ha gustado de los que he leído suyos, más que nada porque es una colección de más ensayos que relatos, y los ensayos me han aportado bastante poco…
A continuación cayó Adulthood Rites, la segunda parte de Dawn, del que hablamos en marzo del año pasado. La saga sigue con Imago, que ya está listo para ser leído. Sigue sin ser tan brillante como Kindred (cómo serlo, por otro lado), pero esta saga de una ¿invasión? extraterrestre de un planeta Tierra en que la humanidad parecía dispuesta al sucidio como especie sigue siendo muy interesante y un buen «girapáginas».
A continuación cayó Unnatural Causes, de P.D. James, la autora del fantástico The Children of Men del que hablamos en octubre. Personalmente, opino que todos habríamos ganado mucho si P.D. James se hubiese dedicado a la ciencia ficción en vez de a la novela negra… pero sus ventas y los múltiples premios que ganó con el noir me hacen pensar que es posible que me equivoque.
Y el último libro de esta tanda es SPQR, de la historiadora británica Mary Beard. Uno no se leía «una de romanos» desde la de Montanelli, y de eso hace… ¿35 años? Sería interesante recuperar la del italiano y comparar con esta de la británica, porque algo me hace pensar que la historia habrá cambiado lo suyo en los casi sesenta años que separan ambas obras. La de Beard, en cualquier caso, muy recomendable :-).
En fin, espero que haya un 2025.II y que no tarde tanto en llegar como este I…
Pues nada, seguimos con nuestro proyecto de leernos cada mes la revista Byte… de hace cuarenta años. Y le toca el turno al número de junio de 1985. Encontraréis todos los números en esta colección de archive.org, y el que leemos hoy, en concreto, dedicado a las técnicas de programación.
Tampoco es que sea el número de mi vida, pero tiene sus cosillas. La primera en que me paro tiene que ver con accesibilidad:
Que sí. Que hace décadas que hay gente que piensa en usar la informática para ayudar a las personas con discapacidad (en este caso visual). Lástima que tanta otra gente se olvide del tema.
Siguiente parada, anuncio de ordenador de esos que te hace añorar el diseño industrial ochentero:
¿Me vais a decir que no es precioso? Bueno. Me vais a decir que no se ve. Hagamos un enhance it:
¿Es o no precioso el Apricot Portable? Había salido a la venta en octubre del 84 y, recomonozcámoslo, le daba sopas con honda a los portátiles de la época (incluido mi adorado SX-64). Ni siete kilos, pesaba. Y las piezas separadas se comunicaban ¡por infrarrojos! ¡El futuro! ¡En 1984! Hasta tenía reconocimiento de voz (aunque habría que poner «reconocimiento» entre toneladas de comillas: dice la Wikipedia que se le podían entrar 4096 palabras, 64 de las cuales simultáneamente en memoria). Y su MS-DOS pasaba de los famosos 640 Ks (para llegar a 768, tampoco nos emocionemos más de la cuenta). En cualquier caso, una preciosidad.
Seguimos avanzando y nos encontramos con otro anuncio:
¿Qué es eso de GEM? Aquí, otra versión del anuncio:
GEM era el entorno gráfico que desarrolló Digital Research (la compañía de CP/M, fundada en 1974 y que sería adquirida por Novell en 1991 ) principalmente para los Atari ST, pero también para PCs con MS-DOS, entre otros. Y es ver una captura de GEM y que se me caiga la lagrimita. Esnif.
Volviendo a nuestro clásico «¿créias que esto era nuevo?», hoy toca…
Sí, queridas, podríais pensar que TPUs y NPUs y demás son una cosa acabada de inventar, pero cada vez que la IA se pone de moda, alguien piensa en hardware para acelerarla…
Siguiente cosa que me ha interesado: ¿cómo elegir lenguaje de programación?
La cosa comienza dando preferencia a compilados sobre interpretados por temas de velocidad (cosa más importante hace cuarenta años que ahora, que les pregunten a JavaScript y Python). Sigue proponiendo que el tipo de programa es muy importante (y dando COBOL como ejemplo de lenguaje para aplicaciones de negocios), y a continuación proponiendo si lenguajes de alto o bajo nivel… Comencé a leer el artículo pensando que lo que dijese sería siendo bastante actual. Curiosamente, donde uno esperaba más estabilidad… va a ser que no. Pero claro, entonces llega este artículo sobre componentes reutilizables:
Ojo a los dos primeros párrafos:
El mundo del software ha chocado con la Crisis del Software: los proyectos ambiciosos son difíciles de gestionar, demasiado caros, de calidad mediocre y difíciles de programar con fiabilidad. Además, con demasiada frecuencia, el software ofrece una solución que no satisface las necesidades de los clientes. Tras la entrega, o incluso antes, los cambios en los requisitos obligan a modificar los sistemas.
Debemos construir sistemas de una forma radicalmente diferente si queremos satisfacer las demandas futuras de cantidad y calidad. Debemos aprender a construir sistemas que resistan el cambio.
¿Escritos en 1985? ¿1995? ¿2025? ¿Nos jugamos algo a que los podremos reutilizar sin tocar una coma en 2065?
En fin… Si queréis saltar de este mes de junio del 85 a nuestra relectura del número de mayo, aquí lo teneís. y el mes que viene, más (espero).
Este mes la cosa sera (relativamente breve). La portada, no especialmente destacable:
De las noticias, me quedo con un breve. ¿Sabíais que este mes se cumplen cuarenta años del anuncio de Excel? ¿Sabíais que Microsoft lo lanzó inicialmente para el Mac? Pues sí…
¿Se fiaba mucho Microsoft del éxito de Excel? Pues no sé, pero unas páginas más adelante la empresa anunciaba su solución de hoja de cálculo para el Mac:
¿Créiais que lo del caos de productos de las grandes tecnológicas era cosa de ahora? Pues hace cuarenta años Microsoft hacía publicidad de su hoja de cáculo Multiplan para Mac mientras anunciaba el lanzamiento de Excel para la misma plataforma…
Y en la lista de productos tenemos nada más y nada menos que el PC AT de IBM, con su 80286 y sus 256 KBs de RAM en el modelo básico (apenas cuatro mil dólares de la época):
Por cierto… ¿lo de la compatibilidad de los PCs? El AT venía con un teclado nuevo, y el software para los PCs anteriores de IBM que accedía directamente a sus teclados (juegos, por ejemplo)… no funcionaba en el AT. El paso del 8086 al 286, para sorpresa de nadie, también daba sus propios problemas.
El AT, por cierto, era el primero en poder usar los novísimos discos de alta densidad, con sus casi infinitos 1,2 megabytes (hablamos de discos de 5¼ pulgadas, claro), a 500 kilobits por segundo. Sorpresa: las unidades de disco también suponían un problema de compatibilidad: si escribías a un disco de doble densidad, este no necesariamente sería legible en otros PCs. ¿Sistemas operativos? PC DOS 3.0 (no, no MS DOS) o el Concurrent DOS de Digital Research.
Y de los anuncios, me quedo con el SORD IS-11C. ¿No os provoca una cierta ansiedad la bisagra de la pantalla?
Dice la Wikipedia que llevaba un Z80 y que la resolución de la pantalla era de 256 × 64. No habla del peso ni de la batería (algo me dice que solo funcionaba enchufado a la corriente).
Y con esto me paso a la sección de programación, donde encontramos, primero…
Si hoy en día incluimos en una revista un programa para convertir números decimales a fracciones con la capacidad de reconocer al menos unas cuantas raíces cuadradas (el programa reconocía las raíces de 2 , 3 y 5, y π y π2), explotan cráneos (el autor, por más inri, era un estudiante de medicina de Estocolmo). Y por si esto no fuese suficiente…
(El programa usa la serie de Taylor de la arcotangente y da quince cifras de π, más que suficientes para básicamente cualquier cálculo práctico.)
En fin. Volvemos, con un poco de suerte, el mes que viene. Si queréis anticipar el «futuro», podéis hacer trampa aquí.
Continuamos con el proyecto de leer mensualmente la revista Byte… de hace cuarenta años (tenéis las entradas anteriores en la etiqueta Byte del blog, aunque a ver si encuentro el momento de currarme un índice un poco más currado (que muy probablemente solo usaría yo, ciertamente)).
Decía el mes pasado que este número venía cargadito, y así es:
…pero no cargado de las cosas que suelo destacar, sino de una buena cantidad de artículos sobre IA. Pongo yo unos cuantos «plus ça change» en estas entradas, pero en esta ocasión todo el bloque central de la revista es un «plus ça change». Tanto que, del resto, solo me voy a quedar con la inocentada:
(Por cierto, he decidido cambiar de «proveedor» para las revistas, a esta página de archive.org, y en la medida de lo posible (léase, cuando me acuerde) intentaré enlazar los artículos y piezas que comente.)
Entrando en materia, la cosa comienza con nada más y nada menos que Marvin Minsky:
Minsky fue cofundador del laboratorio de IA del MIT, había recibido el premio Turing en 1969, inventó el primer «head mounted display», codiseñó con Seymour Papert la tortuga de Logo, y para su tesis doctoral construyó a principios de los años cincuenta SNARC, uno de los primeros intentos de construir una máquina que imitara el comportamiento del cerebro humano, diseñada para simular una red neuronal, específicamente un conjunto de neuronas artificiales interconectadas, que emulaba el comportamiento de ratas recorriendo laberintos, y aprendía gradualmente a encontrar el camino correcto basándose en recompensas (lo que ahora llamamos aprendizaje por refuerzo). Ojo: Minsky (fallecido en 2016) estuvo asociado con Jeffrey Epstein y estuvo en su isla privada, aunque la mujer de Minsky, que estuvo allí con él, defiende que nunca hizo nada moralmente cuestionable allí.
Minsky, que estaba muy interesado en SETI, el proyecto para buscar vida extraterrestre, plantea en el artículo su hipótesis de que toda inteligencia, alienígena o no, debe ser similar y que, por tanto, no debería ser muy difícil la comunicación, a no ser que la otra inteligencia haya ido más allá del estado de preocuparse por su supervivencia, la comunicación y expandir su control del mundo físico. Para ello se apoya en un experimento mental de exploración de máquinas de Turing, y en la universalidad de la aritmética, para acabar llegando a la inevitabilidad, a su vez, de muchos aspectos del lenguaje (el razonamiento me suena a Chomsky, por algún motivo). No me atrevo para nada a resumir ni a juzgar el artículo, pero es curioso combinar la IA de la inteligencia artificial con la IA de la inteligencia alienígena, cuando menos…
El siguiente artículo también tiene autores «wikipediables»: Roger Schank se doctoró en lingüística después de graduarse en matemáticas, fue profesor de informática y psicología en Yale , donde en 1981 fundó el Yale Artificial Intelligence Project y en 1989 haría lo mismo con el Institute for the Learning Sciences de Northwestern. Investigaba sobre comprensión del lenguaje natural y razonamiento basado en casos. Y, me temo, no solo conocía también a Epstein (ayuda que este se dedicase de vez en cuando a financiar investigación en IA), como Minsky, sino que le mostró su apoyo cuando comenzó a destaparse el pastel :-S. Lawrence Hunter, por su parte, se dedica hoy en día a la biología computacional, campo al que llegó a través del razonamiento basado en casos para el diagnóstico del cáncer de pulmón.
¿Y el artículo? El artículo toca, primero, un tema que se me antoja vital y, a la vez, absolutamente ausente del debate actual: cómo la inteligencia artificial podría ser una muy buena herramienta para ayudar a entender qué es y cómo funciona la inteligencia «natural», y luego se centra en algunos de los problemas de procesar el lenguaje natural, como la ambigüedad, el contexto o la memoria (la de recordar, no necesariamente la RAM).
Me estoy pasando con la cuenta de palabras, o sea que solo citaré The LISP tutor y PROUST, An automatic debugger for Pascal programs, que como podrá imaginar el lector, se centran en los usos , que ahora parecen más cercanos, pero ya veremos, de la IA para enseñar a programar y ayudarnos a programar.
Y cerramos con…
… nada más y nada menos que un Nobel de física (y premio Turing, y premio Príncipe de Asturias, y no sé cuántos premios más), Geoffrey Hinton. Lo de darle un Nobel en física a un graduado en física y doctor e investigador en IA es algo en lo que no entraré ahora, pero marcarse el punto de publicarle cuando era un mero profesor ayudante en Carnegie Mellon, junto a figuras al menos aparentemente de mucho más relumbrón que él, me lo vais a tener que reconocer, no está nada mal. Más si lo que está explicando es, si no lo he entendido mal, el trabajo en entrenamiento de redes neuronales que es uno de los pilares por los que ha acabado ganando todo el reconocimiento y los premios con los que cuenta.
Y no me alargo más, pero toda la tabla de contenidos del especial merece como mínimo una ojeada rápida…
Y, en cualquier caso, que cuarenta años no son nada.
Si queréis seguir leyendo, aquí tenéis mis notas sobre el número de marzo. Y el mes que viene, con un poco de suerte, más.
A ver, José Luis (José Luis se llama Kyle Chayka, en este caso). Ya me he comprado tu libro. Y lo he comenzado a leer, con ganas, porque te compro, de salida, la tesis. No me puedes salir ahora con argumentos que no se aguantan de ninguna de las maneras, cuando apenas hemos comenzado el dichoso libro. No puedes. Vale. Sí puedes. Ya lo he visto. Pero no deberías, José Luis. Y no te hace falta, además, hostia. Y hieres la sensibilidad de los posibles lectores con neurona encendida. Que haberlos, haylos (supongo: mi neurona está, en los mejores momentos, en modo ahorro de energía).
¿Tenemos que irnos siempre al dichoso «cualquier tiempo pasado fue mejor» para criticar cosas que han surgido [relativamente] recientemente [y merecen ser criticadas, claro que sí, con furia, incluso]? Que sí, que los algoritmos de recomendación, o se hacen con extremo esmero y, además, se alimentan con mimo, o el aplanamiento cultural es su resultado más natural. Weapons of math destruction, como decía Cathy O’Neil. Que estamos de acuerdo. Pero no, eso no quiere decir qur todo lo que había antes fuera maravilloso. Había cosas maravillosas, y debemos defenderlas, mimarlas, estudiarlas y reproducirlas (casi mejor evolucionarlas, sí es posible). Pero también había mucha mierda, José Luis. Que ese diario que te parecía (y probablemente era) un horror de extrema [inserte la lectora aquí el lado político que no le guste]… lo editaba alguien que, mal que nos pese reconocerlo, era una persona. Que esa radiofórmula infame que aplanaba culturas antes de que nacieras, José Luis, la programaba una personita. Que, por acelerar un poco y no hacer eterno este párrafo, Joseph Goebbels no es el nombre de un algoritmo, y ni siquiera fue el primero en jugar a ese deleznable juego. Todo eso ya estaba ahí. Y «algoritmo de recomendación caca, selección humana siempre bien» (nótese el énfasis en «siempre») es un razonamiento de patio de colegio. Y, José Luis, tu «nunca mal», al fin y al cabo, es un «siempre bien», no me vengas con.