Everything is an AI remix

Llevaba yo tiempo (meses) con una pestaña del navegador abierta en la última versión de ese maravilloso vídeo que es el Everything is a remix

…con la intención de buscarle la relectura «en tiempos de IA generativa». Y resulta ser que en el último enlace del #67 de Interaccions, la maravillosa newsletter de Sergi Muñoz Contreras, este me descubre que, de hecho, esa relectura ya se la ha hecho su propio autor, Kirby Ferguson. Y después de verla, opino que es de lo mejor que se ha dicho sobre el tema (y es que en muchísimas ocasiones, incluso cuando el discurso se alinea con mis ideas, me parece que la capacidad de argumentación es escasa).

Mi recomendación es que, aunque vieseis alguna de las múltiples versiones del Everything en su momento, la reveáis ahora con calma antes de ver el segundo vídeo.

Y solo añadiré que, siendo uno muy, muy fan del Everything, y estando bastante de acuerdo (pero no del todo) con la relectura, creo que se salta lo que yo llamo «el problema del aprendiz» (que seguro que tiene un nombre mejor): pareciéndome determinados (muchos, incluso, potencialmente) usos de la IA como herramienta (como los propuestos en AI is remixing, por ejemplo) lícitos (estoy obviando los charcos tamaño océano de la sostenibilidad y del respeto a la propiedad intelectual, ciertamente), la IA es un arma de destrucción masiva del proceso de aprendizaje que convierte al aprendiz en maestro, y que eso es algo que me aterra. Creo que lo resolveremos algún día. Pero me aterra.

El día en que lo ‘petamos’ en el fediverso

Petarlo… entre todas las comillas del mundo, ¿eh? (Y, por si no se notaba con el título, esto es una egoentrada, o sea que si no te gustan estas cosas, ya puedes dejar de leer.)

La cuestión es que el martes pasado, como seguramente notáseis, se cayó Cloudflare, llevándose por delante un trozo de internet bastante más grande del que debería. Servidor, por ejemplo, se enteró de que había sido Cloudflare por un tuit en Bluesky1 de un medio de comunicación… y al hacer clic para leer el resto de la noticia, no pude… porque el medio estaba detrás de Cloudflare, y a nadie se le había ocurrido desactivar la dependencia (o no se habían atrevido, que es otra posible explicación, claro). Normalmente, las caídas de esta escala suelen ser culpa de uno de los centros de datos de Amazon pero, sea cual sea la causa, desde agosto de 2024, cuando pasan estas cosas comienza una carrera por ver quién es el primero que cita el xkcd correspondiente:

Una estructura de piedras apoyadas sobre otras piedras. La estructura está etiquetada como "toda la infraestructura digital actual". En una parte del dibujo hay un pequeño palito sobre el que se apoya buena parte de la estructura, etiquetada "un proyecto que una persona aleatoria de Nebraska lleva manteniendo sin que nadie se lo agradezca desde 2003"

…o una de sus múltiples, casi infinitas, variantes. (Diría que el chiste de xkcd es bastante autoexplicativo para la audiencia habitual de obm, pero, en cualquier caso, siempre está el explain xkcd correspondiente.)

Pero a mí este xkcd siempre me ha parecido versionable (que no necesariamente mejorable, claro). Nuestras infraestructuras digitales dependen más de lo que deberían, no solo en un proyecto de cuyo mantenimiento se encarga alguien sin ningún tipo de soporte ni agradecimiento, sino de múltiples otros puntos de fallo, como el típico centro de datos de Amazon al que ya nos hemos acostumbrado, pero también Cloudflare, y vaya usted a saber cuántas cosas más (un DNS mal configurado es un arma de destrucción muy masiva, por ejemplo). Y, además, a veces la dependencia de esos puntos es mayor de la que podría uno imaginar viendo el chiste, con las dos sólidas rocas a la izquierda del palito. Yo llevaba un tiempo con la idea de mi «remezcla» de la tira, y el martes fue el día en que encontré el ratito para abrir Photoshop y montarla:

Una variación del meme anterior. Ahora toda la pila se sostiene sobre cuatro palitos, etiquetados como Cloudflare, un centro de datos de Amazon, uno de Azure y un proyecto de código abierto del que ni siquiera has oído hablar.

Hay una nota que dice "con disculpas a Randall Munroe y un sinnúmero de otras personas"

(La tipo, por cierto, es fácil de obtener.)

Y, una vez hecha la chorrada, pues la tentación de colgarla en Mastodon y en Bluesky resultó imposible de evitar. Y la cosa tiró bastante más de lo que uno se habría esperado. No tanto en Bluesky, donde se ha quedado en 35 retuits a día de hoy (y 4 bookmarks, que personalmente me hacen bastante ilusión), pero sí en Mastodon, donde en 24 horas había llegado a 1300 retuits y 1400 «me gusta». Ahora la cosa se ha reducido a un goteo, y anda por los 1500 retuits, pero durante un ratito tuve mis warholianos quince minutos de fama, y me hizo gracia comprobar cómo me retuiteaban tres o cuatro personajes célebres del fediverso y todo :-).

Y como las redes de microblogs son bastante terribles a la hora de indexar y recuperar, dejo esta entrada por aquí :-).


  1. Si X ha renunciado a la palabra tuit, servidor no ve ningún motivo para usar otra palabra para referirse a las entredas de microblogging, independientemente de la plataforma a la que pertenezcan. ↩︎

Scott y Mark y la enseñanza de la programación

Scott Hanselmann es un tipo majísimo, con un podcast muy recomendable (de los últimos episodios, me quedo con el del Interim Computer Museum o el de Anne-Laure Le Cunff, pero el nivel medio es alto). Scott es, además, el vicepresidente de «developer community» de una pequeña compañía llamada Microsoft (cosa que le permitió abrir el código del BASIC de Microsoft para el 6502, que enseñó a programar a mucha gente en el Apple II, y los Commodore PET, VIC 20 y Commodore 64, con el que aprendí yo, y que con eso yo ya le estaría agradecido eternamente).

En Microsoft Scott conoce a Mark Russinovich, cuyo LinkedIn dice que es «CTO, Deputy CISO and Technical Fellow, Microsoft Azure«, pero que igual os suena más (a los que tengáis una edad, os guste la informática y uséis Windows) de SysInternals. Y Scott y Mark tienen otro podcast, muy apañado también, Scott and Mark Learn To…, que en los últimos episodios ha hablado bastante de un producto que vende intensamente Microsoft, la programación con IA generativa. Y de todos esos episodios, me quedo con este fragmento y lo que dice Russinovich hacia el final. Os dejo el vídeo en el momento indicado, acompañado de la transcripción en inglés, primero, y la traducción al español, después.

Solo comentar antes, que…

  • ….hablan de informática, pero aplica a muchos otros campos, si es que no a todos,
  • que no es la opinión más original del mundo, pero está bien que lo diga quien lo dice,
  • que lo de que las universidades no tienen un buen modelo es rigurosamente cierto, pero a ver quién es el guapo o guapa al que se le ocurre una solución que no sea brutalmente intrusiva o imposiblemente cara,
  • y que destaco un fragmento de la conversación, pero que también está muy bien (traducido: alineado con lo que pienso yo, que es un tema que también me toca de relativamente cerca) sobre las empresas y lo que buscan / deben buscar al contratar gente joven, y que en general todo el episodio, y todo el podcast, son bastante recomendables.

Y eso, os dejo con el vídeo, la transcripción y la traducción.

Otro día, más.

Transcripción

(A partir de la transcripción de YouTube, corregida y editada ligeramente por mí para hacerla algo más legible (espero). Las negritas son mías.)

—So as we end… we’re at an inflection point. What should university students that are studying CS right now, sophomores, juniors, seniors, in CS, be thinking about as we are in that point?

— I have a friend that’s got a student in computer science that’s a junior and he said he was talking to them and said asking them, do you use AI and he says, like, yeah a lot of my fellow students are using AI. I don’t use AI, because I want to learn, the hard way.

— I think both is the right answer, though, I feel.

— I think both, but here’s what I’ll tell you right now. I think that universities don’t have a good model, you know, consistent.

— They’re behind. Academia might, but research level academia.

— But not for teaching undergrads. And, actually, I think what is coming into view for me is that you need classes where using AI for certain projects or certain classes is considered cheating. Not to say that you don’t have classes and projects in some classes where the student is told to use AI, but you need to have the main basis for the education on computer science and programming to be AI-less, because that’s the only way the student’s going to learn.

— I’ve been saying «drive stick shift». And I get told that I’m being gatekeepy when I say that.

— I don’t think you are, because there is a great study of three months ago from MIT where they took, um, not students, but they took people in careers, already in the workforce, and they divided them into three cohorts and had them write essays from the SAT, and they had one cohort just do it with their own closed book, just write the essay. They had another cohort that got to use Google, and they had another cohort that got to use ChatGPT, and they looked at their EEGs, and they quizzed them afterwards, right after, and then like a week later, and the results were exactly what you would expect. The people that wrote it could answer questions about what they wrote, even a week later, and their EEGs showed that they were burning a lot of wattage. The people that were using ChatGPT, an hour after they wrote the essay, they couldn’t remember what they’d written.

— That’s the thing. It’s just not even there. That makes me really sad. I very much enjoy using AI to brainstorm, to plan, but then I want to do the writing part. To vibe your way through life has me concerned.

— You lose the critical thinking. And they call this critical thinking deficit, that is what it’s creating…

— Which we already have from social media.

— Yeah, we already have. And if you’re talking about the early and career programmers that we’ve been talking about wanting to hire at a company, you want them to know what a race condition is. You don’t want them to have vibed it and AI is like, «Yeah, a race condition. AI will fix that.» Because at some point, as we’ve said, I think with the limitations of AI and software programming, at least for the foreseeable future somebody needs to know.

Traducción

(Con ChatGPT y revisado por mí. Las negritas siguen siendo mías.)

—Así que, para cerrar… estamos en un punto de inflexión. ¿Qué deberían estar pensando los estudiantes universitarios que estudian informática ahora mismo?

—Tengo un amigo que tiene un hijo que estudia informática, está en tercer año, y me dijo que le preguntó: “¿Usas IA?” Y él respondió: “Sí, muchos de mis compañeros la usan. Yo no, porque quiero aprender por el camino difícil.”

—Creo que ambas cosas son la respuesta correcta, sinceramente.

—Sí, ambas, pero te diré algo: creo que las universidades no tienen un modelo adecuado, coherente.

—Van por detrás. Quizás la academia investigadora sí, pero…

—Pero no en la enseñanza de grado. De hecho, creo que lo que se está haciendo evidente es que necesitamos clases en las que usar IA para ciertos proyectos o asignaturas se considere hacer trampa. No porque no debas tener otras clases o proyectos donde se indique explícitamente al estudiante que use IA, sino porque la base principal de la formación en informática y programación debe ser sin IA, porque es la única forma en que el estudiante realmente aprenderá.

—Yo suelo decir “hay que aprender a conducir con cambio manual”. Y me dicen que eso es una postura elitista1.

—No creo que lo sea, porque hay un estudio excelente de hace tres meses del MIT donde tomaron… no estudiantes, sino profesionales ya en activo, y los dividieron en tres grupos para que escribieran ensayos del tipo de la selectividad. A un grupo le dijeron que lo hiciera sin ayuda, a otro que podía usar Google, y a otro que podía usar ChatGPT. Luego midieron sus electroencefalogramas y los evaluaron justo después y una semana más tarde. Los resultados fueron exactamente los que esperarías: las personas que escribieron el ensayo por sí mismas eran capaces de responder preguntas sobre lo que habían escrito incluso una semana después, y sus elecroencefalogramas mostraban mucha actividad cerebral. En cambio, quienes usaron ChatGPT, una hora después ya no recordaban lo que habían escrito.

—Eso es. Es que ni siquiera está ahí. Y eso me pone muy triste. Me gusta mucho usar la IA para generar ideas, para planificar, pero luego quiero escribir yo. Esa actitud de “vibear”2 la vida me preocupa.

—Se pierde el pensamiento crítico. Y eso está generando un déficit de pensamiento crítico…

—Que ya teníamos por culpa de las redes sociales.

—Sí, ya lo teníamos. Y si hablamos de los programadores jóvenes o principiantes que queremos contratar en una empresa, quieres que sepan lo que es una condición de carrera (race condition). No quieres que lo hayan “vibeado” y que la IA les diga: “Sí, una condición de carrera, la IA lo arreglará.” Porque, como ya hemos dicho, con las limitaciones de la IA en la programación de software, al menos en el futuro cercano, alguien tiene que saberlo.

  1. «Gatekeepy» en el original. En este caso «to gatekeep» sería poner barreras de acceso innecesarias, o «pedir carnets». ↩︎
  2. «Vibear» es mi traducción de «to vibe code«, crear programas a base de prompts a IAs generativas, sin escribir una línea de código. ↩︎

¿Qué software gastas? (v6)

¡Que hacía más de diez años que no hacíamos un Qué software versión Windows! Tampoco es que haya cambiado radicalmente el entorno, pero igual estaría bien darle una vueltecilla a la cosa, ¿no? Coged aire, que no me ha quedado corta, la entrada.

El navegador

El navegador principal sigue siendo Firefox, claro, pero las extensiones han cambiado lo suyo desde que hablamos de ello por aquí…. ¡en 2017!. Las principales:

  • Ya no usamos Pocket para guardar lecturas, porque Pocket murió (a manos de Firefox :-(). Afortunadamente, con la muerte de Pocket descubrimos Instapaper, y estamos la mar de contentos con él. También hemos dejado de usar Diigo para gestionar bookmarks, y ahora somos fans de Raindrop.io. Feedly Mini para guardar cosas en Feedly, porque erre ese ese. Algún día revisitaré la entrada sobre cómo gestiono la información y qué va a Instapaper, qué va a Raindrop y qué va a Feedly. O no, quién sabe. Ay sí: cuando los enlaces son académicos, suelen ir a parar a Mendeley o al botón de Google Scholar, para acabar de complicar las cosas.
  • Para usar las pestañas en vertical (la única manera de usar las pestañas del navegador en una pantalla grandecita) ya no usamos Tree Style Tab. Podríamos usar las pestañas verticales de Firefox, pero tampoco: nuestra elección es Sidebery, que mola mazo.
  • Otra cosa que se ha caído es Pushbullet, que usaba para enviar pestañas de un ordenador a otro (o al móvil o a la tablet). En este caso, sí lo hemos reemplazado por la funcionalidad nativa de Firefox, porque Firefox Sync va la mar de bien.
  • LanguageTool. No me preguntéis cómo sobrevivía sin la ayuda de LanguageTool para revisar mi ortografía y gramática, porque no me acuerdo. Me parece tan útil, que me hice cuenta de pago a pesar de que no la necesito.
  • NordVPN (gracias, LaLiga, por obligarme a tener una VPN para usar servicios perfectamente legales cada vez que hay partido :-|). Por cierto, si queréis contratar NordVPN, aquí mi enlace de afiliado. Si os registráis desde ahí, a mí me dan tres meses gratis, y a vosotros otros tres si os pilláis un plan de un año o más.
  • En la línea de protección de la privacidad y similares, Ghostery (para protegerse de trackers), y Facebook Container (podría irme a Firefox Multi-Account Containers, pero en la práctica con aislar Facebook e Instagram ya tiro), Consent-O-Matic (están trabajando para hacer que la ley de cookies sea menos molesta, cuando esta extensión de la Universidad de Aarhus demuestra que no haría falta), Cookie Remover y ClearURLs para eliminar el tracking de los enlaces que uno copia-y-pasa. Si usáis GMail, igual también os interesa considerar Ugly Email.
  • En la línea de Consent-O-Matic, algunas otras utilidades que no se ven, pero que hacen las cosas más cómodas, Allow me to click Google Maps y Make Medium Readable Again (con lo poco que caigo en Medium últimamente, esta última es candidata firme a caerse).
  • Video Speed Controller, porque mola que YouTube te deje reproducir los vídeos a más velocidad, pero la interfaz de esta extensión es mejor y, además, mola poder acelerar prácticamente todos los vídeos de la web, no solo aquellos en que lo permite el reproductor. No sabría calcular las horas que me ha ahorrado.
  • Y siguiendo con audio y vídeo, YouTube Audio and Video Downloader y Media Converter and Muxer. No recuerdo la última vez que las usé, pero reconforta tenerlas ahí.
  • Cada vez uso menos Web Developer y VisBug, o la WAVE Evaluation Tool (para ayudar con la evaluación de la accesibilidad de un sitio web) y Print Edit WE (para esconder cosas cómodamente cuando quieres imprimir o hacer una captura de pantalla de un sitio web) porque las herramientas para desarrolladores de Firefox (y del resto de navegadores) cada vez van mejor, pero siempre está bien tenerlas a mano.
  • Por si los accidentes catastróficos (esto es, cuelgues del navegador que pierden información), Tab Session Manager y Form History Control.
  • La extensión de The Wayback Machine, a veces para acceder a versiones archivadas de una página web, y de vez en cuando para asegurarme que las entradas de obm quedan archivadas (llamadme pretencioso, sí).

Veintisiete extensiones de nada, si no me he descontado. Ah. Y me olvidaba: mi buscador por defecto hace un tiempo que no es Google, sino Qwant (hecho y alojado en Europa, cosa que implica algo más de privacidad), y apenas necesito a recurrir al buscador de Mountain View (que sigo teniendo ahí, por si acaso, con DuckDuckGo, Bing o la Wikipedia).

¿Que por qué Firefox? Porque usar el navegador que desarrolla una empresa cuyos ingresos vienen prácticamente todos de la publicidad no necesariamente respetuosa con la privacidad de las personas no me parece una buena idea, llamadme tiquismiquis… y Safari tampoco porque, por un lado, su fabricante no es santo de mi devoción, pero también porque uno vive en un mundo multiplataforma.

¿Navegadores secundarios? Firefox Developer, claro 😬. Vale, sí, en el Mac tengo Safari, y Edge en las máquinas Windows. Y también está instalado Chrome, pero cuando necesito un Chromium suelo optar por Vivaldi, el verdadero heredero de Opera. Y no, de momento no uso ni Dia, ni Comet, ni similares. Sí tengo instalado Zen, pero no recuerdo la última vez que lo usé…

El resto de esenciales

Pocos cambios aquí, que uno sigue siendo usuario de las suites de toda la vida, Microsoft Office y Adobe Creative Cloud. ¿Podría pasar con la suite de Google y unas cuantas aplicaciones web? En el 99% de los casos, muy probablemente. Pero si no las tuviera por trabajo, es muy probable que me pagara tanto Office (el tera de OneDrive casi justifica por sí solo los 100 euros anuales del plan personal, opino —Google te cobra 20 por cien gigas y 30 por doscientos, aunque es cierto que los dos teras a 100 euros sí están bien, pero me gusta mucho más OneDrive que Google Drive—, y los ciento treinta del plan familiar, la verdad, me parecen un regalo aunque solo se usen dos o tres de las seis cuentas que permite). Los casi veinticinco al mes de Photoshop y Lightroom me duelen más, ciertamente.

El editor de texto es VS Code (que sí, que Microsoft, y eso, sí, pero de momento ahí se queda). Me enamoré bastante de Codeium/Windsurf, pero ya no sé si se han ido con OpenAi, con Google o con Microsoft (pedazo de culebrón montaron, oiga), o sea que para irme a un fork, me quedo con el original. Si queréis algo más ligero, Microsoft Edit.

Para la mensajería, lo concentramos todo (los SMS, el Chat de Google, WhatsApp, Telegram, Signal, la mensajería de Instagram, la de Facebook…) en Beeper (vale, Zoom no: a veces no queda otra que instalar Zoom).

De VPN ya hemos hablado antes: NordVPN (enlace de afiliado, como explicaba más arriba). Y como decía antes, gracias (o no), LaLiga por hacer que necesite una VPN.

¿Para los temas multimedia?

  • Seguimos reproduciendo vídeo (y audio) con VLC.
  • Para grabar y retransmitir vídeo cuando hace falta (que es poco, muy muy poco), OBS (con VirtualCam para que actúe como webcam virtual). Últimamente he instalado CAP, pero acabo usando ClipChamp, que está a un clic siempre, no requiere instalar nada, y hace el 99.99% de lo que necesito. Por cierto, que para usar el móvil como webcam tengo que investigar cómo se hace con Phone Link (volvemos sobre Phone Link dentro de un ratín), pero de momento tengo Camo Studio.
  • Para conversión de formato, el siempre socorrido Handbrake. Y si hay que cortar un vídeo, avidemux.
  • Si se trata de música en streaming, hace nada explicamos cómo nos pasamos a Tidal (seguimos añorando Spotify a ratos, pero nada hace pensar que vayamos a volver).

Las utilidades que deberíais tener instaladas

  • Para trabajar con zips y otros archivos comprimidos, va a gustos: ¿7zip? ¿PeaZip? ¿Nanazip? Busque, compare…
  • Sigo gestionando el portapapeles con Ditto, aunque el soporte nativo de Windows es suficiente para casi todo.
  • La madre de todas las utilidades sigue siendo PowerToys. ¿Cómo que no la tenéis instalada todavía? De verdad…
  • Para el tema discos, TeraCopy para grandes movimientos de archivos y WizTree para hacer un mapa del disco deprisa (increíblemente deprisa, si usabais WinDirStat: cuesta creer que hagan lo mismo). Y si perdéis algún archivo, cruzar los dedos y Recuva. Como alternativa al explorador de archivos, todavía tengo instalado OneCommander, con su vista en columnas al más puro estilo Mac… pero no me acaba de convencer. Y si quieres aniquilar un archivo (y que sea prácticamente imposible recuperarlo (siempre hay un pequeño riesgo, si no destruyes físicamente el disco)), sdelete.
  • Ah, y como decíamos hace un rato, para gestionar el móvil Android (parece que también hay una versión para iPhone, pero no tengo el gusto), Phone Link, para tener las notificaciones del móvil en la pantalla del ordenador, tener acceso a las fotos, transferir archivos y, si tienes el modelo de teléfono adecuado, incluso compartir el portapapeles y usar las aplicaciones del móvil desde el ordenador.
  • Si usáis múltiples monitores, Dual Monitor Tools os permitirá desde tonterías como tener colecciones de fondos de pantalla diferentes para cada monitor (imprescindible si tenéis alguno en vertical, por ejemplo) a cosas algo más útiles como fijar en qué monitor aparece cada aplicación o mover rápidamente ventanas entre monitores. Parece mentira que esto no venga por defecto con Windows, pero siempre nos quedará esta aplicación.
  • Y si tenéis un lector de libros electrónico, Calibre, claro (menos necesario si el lector tiene Android, cierto).

Y todo lo demás…

Todas esas cosas que, de hecho, no vas a usar, pero está bien, si no tenerlas instaladas, como mínimo saber que existen y de dónde bajarlas

  • Para diagnosticar qué les está pasando a tu ordenador… SysInternals, GPU-Z y HwINFO. Afortunadamente, hace mucho tiempo que no tengo que usarlos, o sea que igual han aparecido cosas mucho mejores, y yo, feliz sin saberlo.
  • Si queréis tener acceso a utilidades de terminal antes reservadas a Linux (y Macs), el Windows Subsystem for Linux (WSL para los amigos) es una maravilla, pero no recomendaría yo la instalación a los que se asusten fácilmente en un terminal. Y hablando de terminal, el de Microsoft no está nada mal.
  • Y como está de moda igual os apetece jugar con Python.

Apa. Se ha quedado buena tarde para que juguéis con todas estas aplicaciones. Y si detectáis cosas que me haya dejado, o tenéis sugerencias de mejora, ya sabéis: aquí debajo tenéis el formulario de comentarios.

Byte, octubre del 85

Portada de la revista Byte de octubre de 1985. El tema de portada es Simulating Socienty. Lo ilustra una hoja de papel de impresora que envuelve unas caras humanas.

Vamos allá con nuestra relectura de lo último en informática…de hace cuarenta años, a través de los archivos de la revista Byte en archive.org. Hoy toca octubre de 1985.

Para comenzar, no os quejéis de que no estáis presenciando los grandes avances de la historia. Os presento… ¡el disquete de alta densidad! (Creo que la mayoría de los que me leéis ya sois talluditos y apreciaréis que saltar de 720 kilobytes a 1.44 megas, sin ser revolucionario, sí fue todo un salto.)

Sony, Toshiba Prepare High-Density 3 ½ inch Disks

Sony announced in Tokyo that it has developed a 2-megabyte 3½ inch floppy disk, storing 1.6 megabytes (formatted) by doubling the number of sectors per track. The 2-megabyte medium uses a 1 micron magnetic layer (half the thickness of current 1 -megabyte disks) and requires a higher coercivity (700 rather than 600-620 oersteds).

While the 2-megabyte versions use the same magnetic technology as earlier 3 ½-inch disks and drives, the magnetic heads of the drives require higher tolerances. An additional disk cartridge hole allows drives to distinguish between 1- and 2-megabyte disks.

Although it has already licensed 38 companies to produce 2-megabyte disks, Sony says it is waiting for formal standards to be set before marketing the disks and drives, which should be available to OEMs next year, probably at prices about 20 percent higher than 1-megabyte versions.

An even denser 3 ½-inch drive from Toshiba uses perpendicular recording technology to squeeze 4 megabytes of data onto a single-sided disk coated with barium ferrite. Toshiba plans to release evaluation units early next year, with full production slated for 1987

While the 2-megabyte versions use the same magnetic technology as earlier 3 '/2-inch disks and drives, the magnetic heads of the drives require higher tolerances. An additional disk cartridge hole allows drives to distinguish between 1- and 2-megabyte disks.

Although it has already licensed 38 companies to produce 2-megabyte disks, Sony says it is waiting for formal standards to be set before marketing the disks and drives, which should be available to OEMs next year, probably at prices about 20 percent higher than I -megabyte versions.

An even denser 3 '/2-inch drive from Toshiba uses perpendicular recording technology to squeeze 4 megabytes of data onto a single-sided disk coated with barium ferrite. Toshiba plans to release evaluation units early next year, with full production slated for 1987.

Que levante la mano quien supiese / recordase que antes de Access, la base de datos de Microsoft (que no llegaría hasta 1992), hubo un Microsoft Access para conectarse a servicios de información a través del módem (yo no tenía ni idea / no lo recordaba en absoluto). La hegemonía del Access base de datos es tal que apenas he sido capaz de encontrar más información al respecto.

Anuncio de Microsoft Access. Lo ilustra un ordenador sobre el que hay el auricular de un teléfono de sobremesa, roto por la mitad. El titular es Don't get mad, get Access

En nuestra habitual sección «crees que esto se acaba de inventar, pero no» tenemos a la sección de libros, que se hace eco de Computer culture : the scientific, intellectual, and social impact of the computer, disponible, como no, en archive.org, que recogía las ponencias de la conferencia del mismo nombre, porque no es solo en Despacho 42 que nos preocupamos de estos temas y que, naturalmente, ya se preocupaba del impacto de la IA…

Artificial Intelligence

Approximately one-fourth of Computer Culture (four papers and one panel discussion) deals specifically with artificial intelligence. The panel discussion on the impact of Al research is the most thought-provoking contribution in the book. As you might expect, this discussion is not so concise as an article dealing with the same topic, but the interaction among the panel members is intriguing. The panel consists of two philosophers (Hubert Dreyfus and John Searle) and three computer scientists (John McCarthy, Marvin Minsky, and Seymour Papert). Much of the discussion is spent identifying important questions about Al. Each panelist has a distinct viewpoint, resulting in a diversity of questions. Among these, however, two issues are of overriding concern: Can machines think? If they can, is machine thinking the same as human thinking?

The panelists seem to agree that computers can be used to study thinking, if for no other reason than to provide a contrast with human thought processes. On the other hand, the suggestion that appropriately programmed computers could duplicate human thought processes is much more controversial.

Aside from the philosophical issues, Papert makes a very important point when he argues that it is dangerous to reassure people that machines will never be able to challenge the intellectual capabilities of human beings. If people are lulled into a sense of security about machine capabilities, they will be ill prepared to deal with situations in which machines become better than people at doing specific jobs, he says. Whether or not the machines are described as thinking in these situations, the social and psychological issues raised by machine capabilities demand attention.
(Enlazo a la página de portada de la sección de libros, en vez de la específica del fragmento que tenéis aquí. En cualquier caso, vale la pena leer la crítica completa… e incluso el libro, si tenéis la oporunidad)

Más cosas que no se inventaron ayer. Uno ve poco fútbol del de darle patadas a un balón, pero bastante fútbol americano, un deporte en que las retransmisiones no serían lo mismo sin la obligatoria skycam, ua cámara que sobrevuela el terreno de juego colagada de cuatro cables. Y sí, cumple cuarenta años:

Skycam: An Aerial Robotic Camera System

A microcomputer provides the control to add three-dimensional mobility to TV and motion picture cameras

On a morning in March 1983, a group of technicians gathered at Haverford High School in a suburb of Philadelphia. Each brought an electrical, mechanical, or software component for a revolutionary new camera system named Skycam (see photo 1). Skycam is a suspended, mobile, remote-controlled system designed to bring three-dimensional mobility to motion picture and television camera operation. (See the text box on page 128.) I used an Osborne 1 to develop Skycam's control program in my basement, and it took me eight months of evenings and weekends. As of 3 a.m. that morning, however, the main control loop refused to run. But 19 hours later, Skycam lurched around the field for about 15 minutes before quitting for good. Sitting up in the darkness of the press booth, hunched over the tiny 5-inch screen, 1 could see that the Osborne 1 was not fast enough to fly the Skycam smoothly.

In San Diego 18 months later, another group of technicians opened 20 matched shipping cases and began to get the Skycam ready for an NFL preseason game between the San Diego

Chargers and the San Francisco FortyNiners. The Skycam was now being run by an MC68000 microprocessor based Sage computer, and a host of other improvements had been made on the original. [Editor's note: The Sage Computer is now known as the Stride: however, the machine used by the author was purchased before the company's name change. For the purpose of the article, the machine will be referred to as the Sage.] For the next three hours, Skycam moved high over the field fascinating the fans in the stadium while giving the nationwide prime-time TV audience their first look at a new dimension in sports coverage.

Skycam represents an innovative use of microcomputers. The portable processing power needed to make Skycam fly was unavailable even five years ago. That power is the "invention" upon which the Skycam patents are based. It involves the support and free movement of an object in a large volume of space. The development team used the following experiment to test the movement and operation of the Skycam.

At a football field with one lighting tower at each of four corners, the team members bolted a pulley to the top of each pole, facing inward. Then they used four motorized winches, each with 500 feet of thin steel cable on a revolving drum and put one at the base of each tower.

Next, they ran a cable from each motor to the top of its tower and threaded the cable through the pulley. They pulled all four cables from the tops of the towers out to the middle of the field and attached the cables to a metal ring 2 feet in diameter weighing 10 pounds (see figure 1). A motor operator was stationed at each winch with a control box that enabled the operator to slowly reel in or let out the cable. Each motor operator reeled the cable until the ring was suspended a few feet from the ground, and then they were ready to demonstrate Skycam dynamics.

All four motor operators reeled in the cable. The ring moved upward quickly. If all four motors reel in at the same rate (and the layout of lighting towers is reasonably symmetrical) the ring will move straight up. In the experiment, the two motors on the left reeled in and the two on the right reeled out. The ring moved to the left and maintained its altitude. An instruction was given to the two motor operators on the left to reel out and the two on the right to reel in just a little bit. The ring moved right and descended as it moved back toward the center.

The theoretical basis of this demonstration is quite simple. For each point in the volume of space bounded by the field, the four towers and the plane of the pulleys, there is a unique set of four numbers that represents the distances between that point and each of the four pulley positions. Following the layout above for an arbitrary point on the field, you can...

Pero este mes me quedo con el tema de portada: el uso de simulaciones informáticas para modelar la sociedad:

Simulating Society

THE NEED FOR GREATER RIGOR in the social sciences has long been acknowledged. This month's theme examines computer-based simulation as a means to achieving that end. Simulation may be able to assist in evaluating hypotheses, not in the sense that an experiment in the physical sciences can test a hypothesis, but in the sense of making plain the ramifications of a hypothesis. The value of specifying a hypothesis with sufficient clarity to be amenable to programming and of examining the consequences of that hypothesis should not be underestimated. Indeed, one of the interesting aspects of the work presented here is that these researchers appear to be developing a tool for the social sciences that is not simply a poor stepchild of physical science methodologies.

Our first article, "Why Models Go Wrong" by Tom Houston, is a wonderfully readable account of the ways that you can misuse statistics.

Next, Wallace Larimore and Raman Mehra's "The Problem of Overfitting Data" discusses a difficult but important topic. Overfitting happens when your curve traces the noise as well as the information in your data. The result is that the predictive value of the curve actually deteriorates.

In "Testing Large-Scale Simulations," Otis Bryan and Michael Natrella show how validation (determining whether the specification for the simulation corresponds with reality) and verification (determining whether the simulation program corresponds with the specification) were achieved on a large-scale combat simulation they developed for the Air Force.

The ways of economic modeling are illustrated by Ross Miller and Alexander Kelso, who show how they analyzed the effects of proposed taxes for funding the EPA Superfund in "Analyzing Government Policies."

Michael Ward discusses his ongoing research in simulating the U.S.-Soviet arms race in "Simulating the Arms Race."

Several authors discuss new and surprising applications of simulation. In "EPIAID," Dr. Andrew Dean describes the development of computer-based aids for Centers for Disease Control field epidemiologists. Royer Cook explains how he fine-tuned a model in "Predicting Arson," and Bruce Dillenbeck, who uses an arson-prediction program in his work as a community activist, discusses modeling in "Fighting Fire with Technology"

Articles in other sections of the magazine that relate to this theme include Zaven Karian's review of GPSS/PC and Arthur Hansen's Programming Insight "Simulating the Normal Distribution."

When I began researching this theme, I took an excellent intensive course in simulation from Edward Russell of CACI. Dr. Russell's is the unseen hand guiding the development of this theme. Of course, any blame for bias in the choice of theme topics belongs to me, but much of the credit for the quality that is here must reside with him.

No os perdáis los artículos sobre los problemas, comenzando por los dos que abren la sección, sobre los riesgos del mal modelado (un tema que, desafortunadamente, tiene hoy todavía más importancia que hace cuarenta años), y siguiendo con el de modelado económico con Lotus 1-2-3, o el de epidemiología.

Ah, y aprovechando que la cosa iba de modelado… ¿sabíais que SPSS/PC+, no solo ya existía en 1985, sino que fue lanzado en 1968? Si a alguien se le ocurre un software que lleve más tiempo en el mercado, que avise.

Anuncio del programa SPSS/PC+. El eslogan es Make Stat Magic. Lo ilustra la foto de un sombrero de copa, como los de los magos, del que sale un disquete de 5¼ etiquetado SPSS/PC+

Y no vamos a dejar de hablar del Amiga, claro. Esta vez, es Bruce Webster, otro de los columnistas estrella de la revista, el que nos explica lo mucho que ha alucinado con la potencia, el precio y la elegancia del sistema:

According to Webster

Commodore's Coup

Product of the Month: Amiga

Last month, I made a few comments about the future of the home computer market, based on rumors I had heard about the Amiga from Commodore. In essence, I said that if what I had heard was true the Amiga might be the heir to the Apple II in the home/educational/small business marketplace.

Since writing that. 1 have seen the Amiga. I have watched demonstrations of its abilities; I have played with it myself; and I have gone through the technical manuals. My reaction: I want to lock myself in a room with one (or maybe two) and spend the next year or so discovering just what this machine is capable of. To put it another way: I was astonished. Hearing a description of a machine is one thing, seeing it in action is something else especially where the Amiga is concerned

I can tell you that the low-resolution mode is 320 by 200 pixels, with 32 colors available for each pixel (out of a selection of 4096). But that does not prepare you for just how stunning the colors are especially when they are properly designed and combined. It also doesn't tell you that you can redefine that set of 32 colors as the raster-scanning beam moves down the screen, letting you easily have several hundred colors on the screen simultaneously.

It also doesn't tell you how blindingly fast the graphics hardware is. If you've seen some of Commodore's television commercials demonstrating the Amiga's capabilities, or if you've looked at the machine yourself, you have some idea as to what the machine can do. If you haven't, I'm not sure I can adequately describe it.

Having seen the graphics on the Amiga, I have to smile when I hear people lump it together with the Atari 520ST. The high resolution mode on the ST is 640 by 400 pixels with 2 colors (out of 512); on the Amiga, it is 640 by 400 pixels with 16 colors (out of the 4096). and you can redefine those 16 colors as the raster-scanning beam goes down the screen. Also, the graphics hardware supporting all those colors is much faster. Little wonder, then, that a friend of mine, a game developer with several programs on the market, came back from the Amiga developers' seminar with plans to return the Atari ST development system at his house and to turn his attentions to the Amiga instead.

As I guessed last month, the real strength of the Amiga is its totally open architecture. An 86-pin bus comes out of one side of the machine, giving any add-on hardware complete control of the machine What's more 512 K bytes of the 68000's 16-megabyte address space have been set aside for expansion hardware, 4K bytes each for 128 devices. A carefully designed protocol tells hardware manufacturers what data they should store in ROM (read-only memory) so that the Amiga can automatically configure itself when booted. This is a far cry from the closed-box mentality of the Macintosh, which has forced many hardware vendors through weird contortions just to get their devices to talk consistently to the Mac without crashing.

The memory map is well thought out. The Amiga comes with 256K bytes of RAM (random-access read/write memory); an up...

Snif.

Si os lo leéis entero, por favor no os asustéis cuando lleguéis al momento en que comenta que la RAM está a 350 dólares (algo más de mil, actualizando la inflación) por 256 kilobytes. Vamos, que lo por lo que costaban 256 kilobytes hoy te puedes comprar unos 320.. gigabytes. Un millón a uno. (Y supongo que no os sorprenderá mucho comprobar que los márgenes de beneficio de Apple al vender RAM para sus sistemas no son una cosa del siglo XXI.)

Y lo dejamos aquí por este mes. Nos vemos el mes que viene, con el número de noviembre.