Sandisk Extreme Fit: mide antes de comprar

(Hoy toca batallita especialmente intrascendente, quedáis avisados.)

Dichoso primer ingeniero el que decidió que no tenía sentido poderle cambiar el disco a un portátil. Desde entonces, todos acabamos haciendo, tarde o temprano, encaje de bolillos. Porque, por enorme que te parezca un disco, dentro de dos años ya no va a ser enorme, y dentro de tres será demasiado pequeño. En Sandisk, que tienen vista, anuncian sus USB Extreme Fit (aquí la página) con esta imagen:

Vamos, el USB ideal para dejarlo conectado al portátil, y se acabó (durante una temporada) tener que, o bien preocuparse por el espacio en el portátil, o bien conectar y desconectar continuamente un «pen». Y para allá que me fui, a por mi USB de 512 gigas (ir por ir…). Y todo bien, hasta que lo he enchufado…

Mono, ¿eh? Ahora… ¿veis que deja un espacio tirando a justo para el puerto USB-C que queda justo al lado? Pues bien: para enchufar el portátil a los hubs que tenemos en la oficina, cuyos cables no son lo más ajustados del mundo, me he pasado un rato hasta que he encontrado uno que había perdido su carcasa, porque si no, no entraba de ninguna de las maneras:

Ni un milímetro de margen, oiga.

Hay cables USB-C que no dan ningún problema (el de mi «ladrón» USB, sin ir más lejos, afortunadamente). Pero. Antes de comprar un Sandisk Extreme Fit, si vuestro portátil tiene los puertos USB-C uno al lado del otro, echadle un vistazo al resto de cosas que queráis conectar antes de comprar.

Byte, enero del 86

Lo de siempre: seguimos con nuestro proyecto de leernos la revista Byte… con cuarenta años de retraso, y esta vez con un añadido final extra. El tema del mes… ¡la robótica! (Tema que vamos a ignorar bastante completamente, porque no me pone nada. Pero las portadas de Byte son un clásico, o sea que aquí va la del mes:

Portada de la revista Byte de enero de 1986. El tema de portada es la robótica. La ilustración es un huevo, que rompe desde dentro un brazo robótico, como si fuera un polluelo al nacer

Comencemos, pues, por la editorial:

A Threat to Future Software

Last October Digital Research Inc. yielded to pressure from Apple and agreed to change its GEM software to decrease its resemblance to Apple Macintosh software. (GEM is an operating environment for several MS-DOS- and PC-DOS-based computers that allows a user to interact with a computer via windows and icons rather than the usual text-only commands.) Let's ignore, for the moment, the uncertain worth of a "visual copyright" (the legal term for Apple's copyrighting of the overall "look" of Macintosh software). Let's also ignore the ethics of Apple's actions. The point to focus on, instead, is that Apple's actions are to no one's benefit: Both the microcomputer industry and Apple itself will suffer from their effects.

Apple's actions will slow the growth of the microcomputer industry, which will hurt Apple by shrinking the potential microcomputer audience. Already, several small companies are worried that some project they're working on (and, often, they with it) will be cut down because it is "too Mac-like." In addition, the success of Apple's tactics may encourage other companies to try similar actions, thus increasing the paralysis and anxiety in the industry.

These actions will stifle the incremental evolution that is at the root of any significant growth in our industry. By "incremental evolution" I mean the process of gradual improvement of a product type that eventually leads to a more robust, useful product. For example, Ashtonlate's Framework did not spring full-blown from the heads of the programming team at Forefront. It had its roots in Dan Bricklin's and Bob Franston's VisiCalc spreadsheet, Sorcim's Supercalc (which added functions and sold to a market not supported by VisiCalc), Mitch Kapor's VisiPlot (which gave the distinctive highlighted menu bar now used in so many programs), the software integration of Lotus 1-2-3, and the icons, windows, and pulldown menus of— well, you get the point. If companies are afraid to go to market with what they think are incremental— but distinct— improvements on a basic design, we will become a stagnant industry bounded by the usual and comfortable.

According to Irving Rappaport. Apple's associate general counsel, Apple's intent is to prevent other companies from creating products that are easy to use because of their similarity to the Macintosh. "If people look at it and say, 'Gee. that's like the Mac— I can operate that,' when that's the result you get, it's over the line" of infringement of Apple's copyrights. The effect of this intent is to fragment the industry in the face of what was becoming a de facto standard for human-computer interaction. This lack of standardization will cause many people to stay uninterested in computers because they will have to relearn basic skills with each brand of computer they encounter. (Imagine how many people would drive cars if car manufacturers used different controls for every function in the car.)

Apple might argue that, by claiming a larger slice of a smaller pie, it will still come out ahead. We believe that it will be hurt directly by its actions and will end up with a smaller piece of a pie that is itself smaller. Apple will, in effect, build a wall around its ghetto of Macintosh products, thus limiting its own growth and encouraging people to "live" elsewhere.

Texas Instruments' TI-99/4A provides a good example. TI announced that it intended to directly profit from all software written for its machine by forcing third-party software developers to publish their products through TI. When a brave few brought out 99/4 cartridges on their own. TI added a proprietary chip to their cartridges that the computer required before it would run the enclosed software. Needless to say, the few developers working on 99/4 software wisely turned to support other computers.

The same may happen to Apple. IBM already sells over half the business computers bought today, and IBM PC-compatibles account for a fairly large slice of what's left. If Apple has been slowing the erosion of its market share to IBM with the Macintosh line (and I think it has), its current moves will alienate software and hardware developers, who will begin to lavish their creativity upon the more congenial IBM PC-compatible marketplace. And where innovation goes, the market will follow.

Consider: IBM made its software and hardware architectures open. It allowed the development of innumerable hardware clones, many far more similar to IBM products than GEM is to the Macintosh desktop; consequently, the IBM PC-compatible market far outdistanced its combined competitors in less than two years. On the other hand, Apple is actively discouraging not only copying but also borrowing from its software design. It claims the sole right to benefit from a set of ideas that Apple itself has borrowed and improved on (the most direct borrowing was from work done at Xerox PARC). Given these two opposing directions, what do you think will happen?

A Call to Action

We at BYTE call on Apple to recognize the long-term implications of its actions and limit itself to prosecuting cases where the alleged theft is not of "looks" but of actual program code. Barring that, we call on Apple to license its allegedly copyrightable interface to markets that do not directly compete with its current or planned product line— if the licensing fees are reasonable, everyone will profit.

If neither of these things happen, we call on the judicial system to hand down rulings that reflect a strict interpretation of the visual copyright laws— that is. that a product is at fault only if it shows no distinguishing characteristics in appearance or operation from the alleged original; this would protect products that show incremental evolution. We also call on the industry to do two things. The first is to stand up to Apple and see the case decided on its legal merits. The second is to develop an alternative graphic interface and allow its wide adoption throughout the non-Apple computer community; in this way. the rest of us can get on with the business of making computers— in general— good enough that everyone will want to use them.

[Editor's note: Apple maintains that the agreement covers "only three specific products," but one of them is GEM Desktop, which defines the overall GEM environment. Also, according to Kathleen Dixon of Apple, the agreement includes any custom work DRI has done, including the modified GEM software that Atari uses in its 520ST computer] ■ —Gregg Williams, Senior Technical Editor

¿Creíais que Apple se quejaba solo de que Microsoft la copia? (Todo sea dicho: a lo largo de la historia Microsoft ha copiado cosas de Apple… y hasta hay casos en los que Apple ha copiado de Microsoft. Y donde dice Microsoft, puede decirse Google/Android.) Pues antes de quejarse de Microsoft y Windows, se quejaron de GEM, la capa gráfica de Digital Research para sistemas PC/MS-DOS (y no solo estos: volvemos sobre el tema más abajo). Respetando la propiedad intelectual de Apple (más que el editor de Byte, después de leerle), comparto con él que con estas cosas, entonces y ahora, el consumidor sale perdiendo bastante.

Seguimos con los «microbytes» la sección de noticias breves. En esta ocasión, por un lado, evolucionamos con algo que ya habíamos visto por aquí… a las pantallas planas LCD les llega el color:

Epson, Toshiba Announce Color LCDs

Toshiba has developed an active-matrix, eight-color, 640- by 480-pixel, 10-inch-diagonal liquid-crystal display (LCD) that nearly matches the brightness of a standard color TV. No pricing or availability information was given.

Epson announced a backlit high-contrast, 5.13-inch-diagonal color LCD with a resolution of 480 by 440 pixels (one-third of which are red, green, or blue). Epson says the display's contrast ratio is more than 10 times that of a standard reflective LCD and has a viewing angle greater than 60 degrees. Epson also unveiled a high-contrast, 9-inch-diagonal monochrome LCD with a resolution of 640 by 400 pixels. Samples of both displays will be available during the first half of 1986; prices should be approximately twice as much as standard reflective LCDs.

Epson also announced two 10-inch-diagonal monochrome displays using ferroelectric smectic-C crystals. The 640- by 400-pixel and 640- by 200-pixel displays are said to have high contrast ratios, low power consumption, and moderate cost; samples may be available late this year.

Y por el otro (literalmente, hay que girar la página para llegar a ello), desmontamos un poco el mito de que Kodak murió por no innovar en fotografía digital:

Kodak Proposes Tiny Magnetic Disk for Photographs

Eastman Kodak, Rochester. NY, has lined up more than 30 companies— including Sony, Hitachi, and Fuji— to support its 47-mm (1.85-inch) floppy disk for storage of electronic still images. The 800K-byte disk can store up to 50 images of 240-line NTSC video. Eventually, the disk is intended for use in cameras; for now, Kodak is working on a 35-mm film-to-disk transfer station for use in developing labs and a still-video player/recorder for the disks.

…y es que pocas compañías investigaron e invirtieron en el campo de la fotografía digital como Kodak, que acumuló una inmensa bolsa de patentes sobre el tema. Lo que mató a Kodak (bastantes años después de 1986) fue, sobre todo, el miedo a canibalizar su mercado «químico».

Nos vamos, ahora, a la publicidad:

Anuncio del modem Hayes Smartmodem 2400

Sí, amigas, 1986 es el año de volar a 2400 baudios, no a los «viejos». Casi dos kilobits y medio, sí. ¿Recordáis la tortura que es tener cobertura «solo» 4G y descargar cosas a pocos megabits? (Pero no os emocionéis: no todas las líneas telefónicas de la época soportaban esa barbaridad de velocidad.)

Y seguimos mirando anuncios, con un momento histórico: ¡el primer anuncio que vemos de Windows!

Gran texto, Introducing Powe Windows. Vemos una pantalla de ordenador con quizás 8 colores y cuatro ventanas, que no se solapan, sino que se muestran una al lado de la otra. También vemos un ratón y un disquet de 5 ¼ con la etiqueta Microsoft Windows.

No os pongo el publireportaje entero (8 páginas tenía en total, que Microsoft ya tenía unos dineros en la época), pero sí os dejo aquí esta maravilla de gráficos:

Doble página con una gran imagen de una captura de pantalla con hasta cinco ventanas mostradas en pantalla, de nuevo sin solaparse. Vemos la aplicación de relog, una ventana con un primitivo explorador de archivos, un "filing assistant" y una gráfica de barras en riguroso blanco y negro.

¿Reconocéis vuestro Windows «de toda la vida»? Yo tampoco.

Hablábamos antes de GEM… y lo recuperamos aquí, porque en este número se analizaba el Atari ST, la tercera de las máquinas con procesador Motorola 68000, después del Macintosh y el Amiga (recordemos siempre: Amiga mejor que ST mejor que Mac). Y el sistema operativo del ST era, efectivamente, el GEM de Digital Research (bueno, GEM era, como con los PCs, la capa gráfica sobre TOS, el verdadero sistema operativo).

The Atari 520ST

The 68000 unbounded

Editor's note: The following is a BYTE product description. It is not a review— for several reasons. Some of the equipment we received, such as the hard-disk drive, were prototypes, and at the time of this writing, software is scarce. Atari has not yet completed its BASIC interpreter, and the operating system. TOS, remains unfinished. Nonetheless, we are as intensely interested as our readership in new technology, and we feel we have learned enough to share some of the results of our investigations. We began our work on this description as soon as we were able to get a system from Atari. A full review will follow in a subsequent issue.

For many years the public has equated the Atari name with arcade games and joysticks. In truth, the Atari 400/800/XL computer line is technically at least comparable if not better than other 8-bit machines, so it should not be a surprise that the company's latest venture, the 520ST (see photo 1), is a competitive 68000 system. Indeed, we are most impressed with the clarity of the graphics, with the speed of the disk I/O (input/output), and with the 520ST's value.

The system is not without its problems. The desktop is less effective than the Macintosh's, the keyboard has an awkward feel, and the current operating system makes it impossible to switch between high-resolution monochrome and low- or mediumresolution color without installing the other monitor and rebooting. Nonetheless, we are left with a very favorable impression; several software-development languages are already available, including FORTH, Modula-2, and C. With them, you can tap the power of the 68000 at a most reasonable price.

System Description

The Atari 520ST is a keyboard computer. Like the Commodore 64 and the Atari 400/800, the 520ST keyboard unit contains the microprocessor, the memory, the video and sound circuitry, and so on. The power supply disk drives, and monitor are external devices. The 520ST has a variety of ports, but there are no internal expansion slots.

The In Brief box on page 90 summarizes the features of the Atari 520ST. For $799, you get the CPU, a 12-inch diagonal monochrome monitor, and one external single-sided double-density floppy-disk drive. For $999, you get the same system with a 12-inch RGB analog monitor in place of the monochrome monitor (see photo I). Both systems provide 51 2 K bytes of RAM (random-access read/ write memory), a Motorola 68000 microprocessor, MIDI ports with a transfer rate of 31,2 50 bps (bits per second), a DMA (direct memory access) port with a transfer rate of 10 megabits per second for a hard disk or CD-ROM (compact-disk read-only memory), and much, much more. To be sure, owners will make some sacrifices. The unit does not have an RF (radio frequency) modulator for television output, every peripheral has a separate power supply (wire haters beware), and the operating system

currently rests in RAM, stealing over 200K bytes from your workspace. We have summarized other problems below, but almost all are insignificant when you consider what you do get for the money. And rest assured, the system works. Our first system, like most of the first production units, had to have several chips reseated. It now functions properly, and we have not heard of any similar quality-control problems on the latest 520STs.

The Hardware Design

The heart of the 520ST is the MC68000, with its 1 6-bit data bus and 24-bit address bus, running at 8 MHz (see figure 1). The rest of the system was designed to stay out of the 68000's way. (See the 520ST motherboard in photo 2.)

The Atari design team began work on the 520ST in May 1984. From the start, they had several specific goals in mind. The first was to choose a fast microprocessor and do everything to let it run effectively at full speed. To the Atari team, that meant maximizing bus bandwidth and relegating as...

Y… ¿vamos a comparar GEM con Windows, tal y como lo presentaba la mismísima Microsoft en su campaña publicitaria?

Dos fotos de pantallas con GEM a media resolución en una y a alta en la otra. La presentación es muchísimo más sofisticada que la de Windows que hemos visto antes, con ventanas que se solapan y los menús del sistema.

(Eso sí: reconoceremos que el parecido con el sistema operativo de los Macintosh es más que notable. Es innegable.)

Seguimos con nuestra sección «esto no lo ponemos en una revista hoy, que nos lapidan» con un programa en BASIC para dibujar superficies 3D:

EASY 3-D GRAPHICS

BY Henning Mittelbach

A BASIC program for plotting 3-D surfaces

AFTER READING "Budget 3-D Graphics" by Tom Clune (March 1985 BYTE, page 240), I decided to develop a low-cost program for three-dimensional graphics on small computers. 

The program is based upon the formulas for an axonometric projection
in relation to the origin, as shown:

XB = X*COS(PHI) - Y*COS(PSI) 
YB = X*SIN(PHI) - Y*SIN(PSI) + Z

Depending on the graphic window of the computer used, you may change these formulas to

XB = XO + X*COS(PHI) -Y*COS(PSI)

YB = YO - X*SIN(PHI) - Y*SIN(PSI) - Z

where XO and YO will represent the origin of the axes, as shown in figure 1. (I developed the program on an Apple II, with XO = 110 and YO = 180.) Also in figure 1, (XB.YB) is the point to be plotted, and PHI and PSI are the angles referring to the horizon. The function Z = F(X,Y), in line 200 of the program, needs a scaling factor F (line 210) that the user has to introduce in the program.

The Program

The program starts at lines 100 to 180 where you set the parameters X0, Y0, ...

Ojo, que el programa tenía una cierta complejidad y hasta ocultaba las superficies ocultas:

Gráficas de las funciones seno por coseno, exponencial del seno de x por y) y equis por y.

(Si esto no os fuera suficiente, os podéis ir a la página 397 para ver cómo implementar el algoritmo de Euclides para calcular el máximo común divisor.)

He dicho que me iba a saltar la robótica, pero sí me quedo con uno de los artículos de la sección:

MACHINE VISION

by Phil Dunbar

An examination of what's new in vision hardware

THE POTENTIAL APPLICATIONS of machine vision are many and obvious. Everything from quality assurance to robotic navigation could benefit from the availability of reliable vision systems for computers. Perhaps less obvious, though, is the variety of problems that hamper development of the technology. These problems appear on all levels of machine vision— hardware, low-level analysis, and high-level AI (artificial intelligence) manipulation of low-level data. This article will discuss problems that plague the development of vision-system hardware and indicate some of the technology that has emerged to address these problems.

You might think that the most difficult hardware problem in vision systems is digitizing the high-frequency analog stream of camera data. In fact, that is not so. Currently, machine vision algorithms use gray-scale (i.e., monochrome intensity) video information almost exclusively. Such information can be adequately extracted from an analog signal by a 6-bit or 8-bit A/D (analog to digital) converter. Real-time conversion requires approximately a 10-MHz conversion rate to digitize a 512- by 512-pixel image.

These rates can be achieved with flash converters, pioneered by the TRW company when it introduced the TDC 1007 in 1977. Flash converters employ (2")-l comparators to perform A/-bit conversions. That is, an 8-bit flash comparator requires 25 5 comparators to operate. Since all possible digitized values can be compared to the signal at once, the throughput is much greater than with successive approximation methods. Of course, the complexity of the converter rises exponentially with linear increases in resolution. Notable among the commercially available flash converters is TRW's 8-bit monolithic chip flash converter (TDC 1048) that can operate at speeds necessary for real-time machine vision applications and costs about $140 per unit. The real problems with vision hardware revolve around the cameras. The problems fall into two basic categories: video signal standards and limitations of particular camera hardware technologies.

Television Standards

Much of robotics suffers from a lack of standards. Machine vision, on the other hand, suffers from the existence

of video signal standards that are not appropriate for our needs. Those standards were created by and for the television industry. Since the entertainment industry is still a far more lucrative market for camera manufacturers than machine vision, few image sensors and cameras deviate from television standards.

The monochrome video signal standard used in the United States, Japan/ and most of the Western Hemisphere is RS-170, a subset of the NTSC (National Television Systems Committee) standard. Europe uses the international CCIR (Consultative Committee, International Radio) standard, which is similar to, but not compatible with, RS-170. Since both standards present essentially the same problems to machine vision applications, I will limit my remarks to the RS-170 standard.

The RS-170 standard defines the composite video and synchronizing signal that your television uses (see figure 1). The image is transmitted one line at a time from top to bottom of...

Y después de la visión venía una pieza dedicada a los sensores táctiles, otra sobre navegación autónoma y una sobre IA en visión por ordenador. De nuevo, uno no sabe si estamos en el 86 o en el 26 (y no se siente con ánimos de explicar a los autores que a la cosa aún le quedaban unas pocas décadas).

Y echamos una última mirada a la publi, y es que creo que no habíamos reflejado por aquí la maravillosa campaña «Charlot» de IBM:

Anuncio a doble página. A la izquierda leemos que el PC ha llvado el rendimiento a una nueva altura. Al la derecha vemos a Charlot sentado  sobre una pila kilomética de documentos de todo tipo, trabajando con un PC de IBM.

Que no fue un único anuncio, os lo aseguro. Años, duró la campaña, siempre visualmente maravillosa. Os dejo aquí un recopilatorio de anuncios televisivos.

Y nos vamos a ir con otro momento histórico:

The Acorn RISC Machine

A commercial RISC processor
by Dick Pountain

Acorn Computers Ltd. is one of the U.K.'s most successful computer companies, but like many others, it had its share of financial problems during the depressed year of 1985. Set up in 1 979 by two Sinclair alumni, Chris Curry and Hermann Hauser, the Cambridge-based firm (4a Market Hill, Cambridge CB2 3NJ. England) started out manufacturing a set of modular single-board controllers based on the MOS Technology 6502 processor. These small boards stacked together to make up complete industrial-control systems. The following year the Acorn people launched the Atom personal computer, a packaged but expandable machine that arose out of their experience with 6502 systems. For a while, at around £200, the Atom was the cheapest hobby computer available here, and it attracted a strong following, particularly among those who are as handy with the soldering iron as with the assembler. Hopped-up Atoms can still be found to this day.

Acorn's next product, initially called the Proton, was designed to meet a very advanced—for the time— specification published by the BBC (British Broadcasting Company), which was requesting bids to supply a personal computer around which an educational television series would be produced. Acorn won the contract, after a strong and often acrimonious contest in which Sinclair Research, whose 48K-byte color Spectrum was already on the market, lost out.

After a frustratingly long delay due to quality-control problems with the ULAs (uncommitted logic arrays), the BBC computer was launched and proceeded to corner the market in schools and universities. Acorn became a very wealthy company, with a turnover reputed to be £100,000,000 per annum at its high point.

The BBC Micro (alias the Beeb) is still quite a deluxe machine, with better highresolution color graphics than any of its competitors, and quite a bit faster, thanks to its 2-megahertz 6502. Another plus is the provision of a 10-MHz bus, called the Ttibe, to which second processors can be attached. Acorn charges a lot of money for this sophistication though, and the Beeb has kept its £400 price long after competitors have slashed theirs to below the £200 mark.

Acorn had from the start paid more attention to software than most manufacturers, recruiting the brightest Cambridge University computer science graduates for its software division. As a result, the Beeb acquired a range of languages unrivaled by any machine but the Apple II, including an advanced structured BASIC, LISP, Logo, FORTH, Pascal, BCPL (Basic Combined Programming Language), and more. But despite all these positive points, the Beeb has a major drawback, a shortage of memory. The ambitious specification, combined with the limited addressing capabilities of the 6502, left it with a maximum of 32K bytes of workspace (only this year upgraded to 64K bytes), and in the higher-resolution graphics modes this can be reduced to a mere 8K bytes. That doesn't get you very far in LISP or Logo.

So at the height of its prosperity Acorn set a team to design, in secret, its own processor to replace the 6502. This may seem like an ambitious, even rash, undertaking, but the people on the Acorn team were so wedded to the simplicity and speed of the 6502 architecture that they found it hard to countenance any of the commercially available 16-bit replacements. The BBC operating system is heavily interrupt-driven, and the sluggish interrupt latency of 16-bit chips, such as the Intel 8086 and Motorola 68000, would have meant introducing DMA (direct memory access) hardware and all sorts of other undesirable complications. Acorn did, in fact, adopt the National Semiconductor 32016 as a second processor for the Beeb, but only after first offering a 3-MHz 6502. And so they conceived the idea for the...

Acorn RISC Machine… A, R, M. La arquitectura del chip de tu móvil. O de tu Mac, si tienes uno. Y ahí estáis, viendo, en riguroso directo, su nacimiento. Casi nada.

Y hasta aquí la Byte del mes. Si queréis hacer los deberes para el mes que viene, como siempre, aquí tenéis los archivos de la revista Byte en archive.org.


Y esto habría sido todo… pero el otro día me enteré de la muerte de Stewart Cheifet (hasta el New York Times le dedicó un obituario). ¿Que quién es Stewart Cheifet? No me digáis que no habéis visto nunca su Computer Chronicles. Si Byte es, al menos para mí, uno de los recursos imprescindibles en formato prensa escrita para revisar la historia de la informática, Computer Chronicles es lo mismo, pero en formato vídeo. Los archivos del programa de la PBS, la tele pública de Estados Unidos (lamentablemente en peligro de muerte, gracias a la administración Trump y su alergia a la información de calidad), son un documento esencial si te interesa el periodo de 1983 a 2000. Y como homenaje, y como estas entradas sobre Byte <ironía>no son lo suficientemente largas</ironía>, he pensado que completarlas con el visionado de los programas correspondientes sería, cuando menos, un ejercicio curioso1. Y os dejo aquí los programas de enero del 86…

El 7 de enero el programa arrancaba con… ¡inteligencia artificial!

(¿No os ha encantado el anuncio del patrocinio de Byte? 😅)

No podemos dejar de comentar el copresentador del programa con Cheifet: nada más y nada menos que el malogrado Gary Kildall, creador de CP/M… y de GEM. Hay múltiples universos paralelos al nuestro en que amamos y odiamos a Kildall, CP/M y GEM y no recordamos quién era Bill Gates ni sabemos nada de un sistema operativo llamado Windows.

El Jerrold Kaplan que sale en la primera entrevista, por cierto, trabajaba por aquel entonces con Mitch Kapor, fundó en 1987 Go, dedicada a lo que luego se llamarían PDAs y luego fundaría el primer sitio web de subastas (cinco meses antes de eBay). Not bad. Y también podemos destacar la presencia del filósofo Hubert Dreyfus dudando fuertemente de la expertez de los sistemas expertos de la época :-).

Maravilloso también que los expertos apuntaban que 1986 podría ser el año del reconocimiento del habla 😅.

Después, el día 14, otro tema del que no se habla nada en la actualidad: seguridad informática.

…aunque en aquel momento esto se refería al uso de ordenadores para perseguir delitos, peleándose con catálogos de huellas digitales o usando sistemas de información geográficos, por ejemplo, pero también digitalizando procesos como en cualquier otra organización.

Os recomendaría, eso sí, saltar al minuto 27:30 del vídeo, en el que Cheifet habla de los gráficos de la peli El Secreto de la Pirámide… creador por un «nuevo ordenador gráfico, creado por Industrial Light & Magic, una división de LucasFilm. El ordenador se llama… Pixar».

Y no sigo porque, según esta lista de episodios en la Wikipedia2, el siguiente no se emitiría hasta febrero.

Apa, el mes que viene más (ya decidiremos si solo con Byte o con el añadido de Computer Chronicles).

  1. Un ejercicio curioso que, inevitablemente, no se me ha ocurrido solo a mí: veo que alguien ha montado un computerchronicles.blog y que ya lleva nada menos que los primeros 133 programas revisitados. ↩︎

2025 en música

En esta casa es tradición abrir el año bloguero repasando la música que escuchamos en los doce meses anteriores (aquí la entrada del año pasado). Y las tradiciones están para cumplirse.

No es tradicional recuperar los conciertos que vimos, pero a ver si cuaja a partir de ahora… El 17 de enero vimos a los suecos Gidge en La Nau. No nos volvimos a ir de concierto hasta el 17 de marzo, cuando cayó Music for Airports en el Auditori (a cargo del francés Ensemble Dedalus, aquí el programa de mano del concierto en PDF). El 25 vimos al estadounidense Panda Bear en la Paral·lel 62. El 28, a los londinenses Moin en el DNIT del Caixafòrum. El 29, Ben Sims pinchaba en la Laut. A partir de ahí saltamos a junio, con el atracón del Primavera Sound, cuando cayeron, que yo recuerde, Idles, Waxahatchee, Stereolab, TV on the Radio, Fontaines D.C. y Squid (cayeron más, seguro, pero es lo que hay). El 15 de julio nos fuimos a ver a Max Richter al Grec. El 1 de agosto, las argentinas Fin del Mundo en la Upload. El 30, la pinchada del angloturco Erol Alkan en el Apolo. El 15 de noviembre, las estadounidenses hermanas Lovell, a.k.a. Larkin Poe, en el Razz. El 20, la badalonesa Maria Arnal en el Palau Güell dentro del ciclo Orgànic. Y cerramos el año musical (salvo error u omisión) el 30 del mismo mes, con el luxemburgués Francesco Tristano revisitando a Bach (y amigos y conocidos), otra vez en el Caixafòrum. 9 conciertos, 2 sesiones de DJ y un festival. Podría (y debería) mejorar, pero me voy a poner un aprobado sin ningún tipo de remordimiento.

¿Que cuál os recomendaría? ¡Todos! Que no suelo ser yo de que me gusten todos los conciertos a los que voy, pero 2025 estuvo muy bien en ese aspecto :-).

(Nota: alucino con que haya gente sin web propia, que dependen de una cuenta de Bandcamp —o mucho peor: Instagram— para su presencia en la web.)

Este agosto nos fuimos de Spotify, o sea que el wrapped se quedó a medias, pero aún así, me gustó que…

Your listening age: 19

Since you listen to mostly new music. Your taste is trending.
😎

En cualquier caso, en esta casa el verdadero wrapped es el de last.fm, y el mío está, como simepre, en https://www.last.fm/user/chechar/listening-report/year. Y dice last que han sido 25,040 reproducciones (el año pasado 27,609) de 14,554 canciones diferentes (por las 16,182 de 2025) de 3,648 artistas (3,811), para un total de 69 días y 23 horas (un poco menos de una quinta parte del año, vaya). Curiosamente, casi he clavado mis números… de 2024.

Mi top 25 de artistas es…

1. Mogwai (221 scrobbles)
2. Mortimer Nyx (210)
3. Waxahatchee (199)
4. Merce Lemon (197)
5. Hania Rani (194)
6. Juana Molina (182)
7. Bully (176)
8. Vampire Weekend (175)
9. Laurie Anderson (172)
10. iLe (170)
11. Moin (168)
12. Friedberg (166)
13. Pauline en la Playa (166)
14. Larkin Poe (165)
15. Garbage (164)
16. Squirrel Flower (163)
17. Just Mustard (162)
18. King Hannah (160)
19. Travis Birds (156)
20. PP Arnold (154)
21. Sleigh Bells (154)
22. Sid Le Rock (152)
23. Gazella (151)
24. Snail Mail (146)
25. Tame Impala (145)

Voy a presumir, sobre todo, de que esos 25 artistas y bandas representan poco más de la sexta parte de la música que escuché el año pasado. La punta del iceberg, vamos. Viva la dieta variada.

Repasando los datos de last, los principales descubrimientos son las «indie roqueras» Mortimer Nyx (muy poco escuchada, al menos entre la clientela de last, por lo que veo, y Spotify tampoco dice que triunfe mucho, pero mola un montón), y Merce Lemon y el shoegaze valenciano de Gazella (los tres comenzaron a darme fuerte en 2024, por lo que veo, y a Gazella se les verá por Barcelona en febrero), la cantautora argentina Juana Molina (que lleve dando vueltas desde finales de los 80 no significa nada (veo, por cierto, que también pasa por Barcelona este año, en abril)), las también «indie roqueras» Friedberg, londinenses de origen austríaco, las poppies gijonesas Pauline en la Playa (un cuarto de siglo llevan por ahí, sí) y la autoproclamada primera dama del soul de Londres (no seré yo quien se lo discuta, ni aún sabiendo que nació en Estados Unidos) PP Arnold (80 años cumplirá en octubre). Y luego tenemos la recuperación del postrock escocés de Mogwai (llevaba un par de años sin hacerles caso, pobres, pero son una de mis bandas más escuchadas), Sleigh Bells (dice last que lo suyo es el noise pop, y que les tenía bastante abandonados desde 2022) y la psicodelia made in Australia de Tame Impala (no le escuchaba así desde 2020 (viene en abril al Sant Jordi, y no me da la economía para los precios de la reventa, que dan un vértigo considerable: ¿desde cuándo lo peta tanto?)).

¿Géneros del año? Los de costumbre, más o menos:

Las etiquetas más frecuentes, según last, son electrónica, indie, indie rock, rock, female vocalists, post punk y folk

Geográficamente, sigo siendo un surtido Cuétara, aunque la concentración anglosajona se mantiene dominante:

Mapa del mundo. Faltan por pintar buena parte de Centroamérica, África y Asia, pero aparecen todos los continentes.

No repito la gráfica de música por década, porque es la misma del año pasado: si Spotify «opina» que tengo 19 años, es porque escucho mucha más música de los 20 que de los 10, más de los 10 que de los 00, y así hasta el infinito…

En fin, una vez cumplida la tradición… ¡que tengáis un 2026 bien musical!

PS 2026.1.7 Edito para añadir la gráfica de escuchas a lo largo del día, que ayer no la había visto. Diría que no aporta nada de información, pero los homenajes a los clásicos del diseño gráfico siempre están bien :-).

La gráfica de reproducciones a lo largo del día (parece ser que cuando más música escucho es entre las doce y la una del mediodía) es un homenaje a la portada del dissco Unknown Pleasures de Joy Division, con una sucesión de líneas poligonales que dibujan algo parecido al perfil de una cadena montañosa en un videojuego vectorial de los primeros años ochenta.

Byte, diciembre del 85

Toca cerrar el año con nuestra relectura habitual de la revista Byte… de hace cuarenta años. Esta vez, temas de moda… de 2020.

Portada de la revista Byte de diciembre de 1985. El tema es "computer confeerencing", con una ilustración de un conector tipo D con un cable plano... pero en el que los pines del conector son personas sentadas a una mesa.

(Me vais a reconocer que aprovechar un conector tipo D así es, cuando menos, creativo :-).)

Y comenzamos con publicidad, más que por el producto… porque en 1985 ya hacía unos años (pocos, eso sí) que Bill Gates había dicho (o no) que 640 Ks deberían ser suficiente… y ya sabíamos que no.

Anuncio de una ampliación de memoria de dos megabytes, con el eslogan "para aquellas ocasiones en que 640 ks no parecen ser suficientes"

Por cierto. Cuarenta años más tarde, tu ordenador tiene… ¿cuatro mil veces más memoria? ¿Ocho mil?

En la sección «cosas que no son nuevas»…

And Now, Adware

In response to the letter by Mr. Tate ("Don't Sell Software. Sell Ad Space," August, page 26) regarding the selling of advertising space in entertainment software: Wow! What a great idea. Adware (that's my term for it) could resurrect the failing home computer industry

Let's face it, most home computers are used for entertainment; however, the general public is not usually willing to spend S30 to SI 00 for a game. In general I feel that this attitude applies to all types of home entertainment. Look at how successful television has become simply because you don't have to pay for it to enjoy it (unless you want cable or pay TV, but even that is relatively inexpensive). With Adware you would still have to incur the cost of downloading from the telephone. This same reason also accounts for the to-date unsuccessful home videotex systems.

Mr. Tate mentions the advantages of Adware but fails to mention the virtues of the Freeware concept and what Adware could bring to it. I personally do not agree with the idea of selling copy-protected entertainment software commercially. Computers are very good at copying software, and so this fact should be put to good use. Freeware (the free distribution of software by encouraging copying) offers the users a better and more dynamic product. For example. I have a Freeware product that I continue to update as improvements and additions are implemented. When a new release is ready I simply make it available on the Freeware market. You cannot do this economically with a similar commercial product without covering your expenses by raising the retail price. With Adware you could make it a policy to release a new version every few months to insure a dynamic advertising medium.

At present the Freeware distribution network is not firmly established, but if the amount of Freeware and the demand for it grew large enough I am sure that regular channels would establish themselves quickly so that everyone could have almost immediate access to the updates. Another benefit of this concept would be...

…y es que el debate sobre los modelos de financiación del software vendría a ser tan viejo como el propio software.

No nos vamos a saltar nunca las tecnologías para mejorar la accesibilidad de los ordenadores:

The Audiodata/IBM PC Keyboard from Frank Audiodata GmbH of West Germany uses tone and speech capabilities to make the IBM PC accessible to blind and visually impaired users. The system generates different tones depending on the type of data at the cursor's screen location. To position the cursor, you use sliding switches that correspond to the horizontal and vertical axes.

The vertical switch is on the left-hand side of the Audiodata keyboard, next to the function keys. Moving it from top to bottom yields a series of tones that tells you whether lines are blank or full of text. The horizontal switch is below the space bar. Moving it left and right yields tones that indicate letters, spaces, numbers, and punctuation marks in a line. By moving the switches and listening to the resulting tones, you can tell how many characters of what type are at what position on the screen.

The keyboard contains a Votrax SC-01 speech processor, so you can literally have the system read a portion of text out loud. Pressing a button on the vertical switch tells the system to read the line of text that corresponds to its position. Using the vertical and the horizontal switches together, you can have the system read or spell particular words.

The Audiodata keyboard works with standard or large-print monitors or with no monitor at all. It comes with a 6-inch add-in card and the system software for S3450.

Vamos a escandalizarnos, eso sí, de los 3450 dólares de la época que costaba el cacharro. Mucho más barato era este prototouchpad (que más que touchpad era un teclado para macros):

Touchpad Accessory for the IBM PC

Polytel Computer Products has introduced the Keyport 60. a small rectangular touchpad that fits along the top of the IBM PC keyboard. It has 60 touchsensitive regions that can be programmed as function keys and defined in regular and shift modes, so the Keyport 60 will accommodate a maximum of 120 macro commands.

To record a macro, you press the Alt key on your regular keyboard and a touchpad key simultaneously. Any keystrokes that follow are recorded until you press the Alt and touchpad keys a second time.

The touchpad package comes with KPEDIT. a fullscreen editor that allows you to edit key definitions.

Keyport 60 works with the IBM PC, XT, AT, and compatible personal computers, using the joystick adapter to allow concurrent operation with your regular keyboard It costs 399.

Aquí una cosa que no deja de sorprenderme que no hubiesen añadido antes en la revista. Uno se pasó una parte no negligible de los ochenta tecleando código que venía en diferentes revistas. Con mis nulos ingresos en la época, tiempo bien empleado. Pero el comprador de una revista como Byte muy probablemente tenía recursos económicos como para no verlo así:

Página anunciando un nuevo servicio de la revista: la venta de disquetes con el código incluido en la revista. Puedes optar entre disquetes de cinco y cuatro para IBM PC, Apple II en dos tipos de formato, Commodore 64, Hewlett Packard 125, Kaypro 2 CP/M. dps modelos de TRS-80, Texas Instruments Professional, Zaith Z-100 y Atari. En tres pulgadas y media, los formatos son Apple Macintosh, Atari ST, Commodore Amiga, Hewlett Packard 150 y Data General/One.

Los precios van de los cinco dólares de un disco de cinco y cuarto en Estados Unidos a los 8 para discos de tres y medio u ocho pulgadas enviados a Asia, África y Australia.

También se anuncia Bytecom, "conferencias informáticas entre los lectores de Byte en Europa, unas cuantas BBS fuera de los Estados Unidos.

Y, de regalo, nos dan el ránquin de los ordenadores más populares entre los lectores de la revista en la época. Nótese también, primero, que ahí están los discos de 8″ en formato estándar CP/M, y que los precios, teniendo en cuenta que la operación tenía que ser bastante manual, me parecen bastante razonables.

No pongo captura porque el escaneado de las páginas correspondientes en el Archive no está bien (podéis navegar a la página correspondiente de Byte – a visual archive), pero está bien la sección de libros del número. Comienza con la crítica de Back to BASIC: The History, Corruption, and Future of the Language (se puede conseguir en Amazon, curiosamente), en que los diseñadores de BASIC, al parecer, se quejan amargamente de la cosa en que se ha convertido su lenguaje, veinte años después de su creación, y explican por qué lanzaban en 1985 True BASIC (que exista el dominio y se puedan comprar en él versiones del lenguaje actuales y vintage, y manuales, me ha reventado la cabeza). Explican los autores que BASIC no fue diseñado para ser un lenguaje interpretado, sino compilado, y que esto, sumado a las estrecheces de la RAM de los ordenadores en que se estaba usando en los 80, se habían cargado su diseño. Qué cosas.

Más adelante se critica Ethical Issues in the Use of Computers. De nuevo, la digitalización del Archive está mal, pero se puede acceder al visual archive, para recordarnos que este no es un tema de nuestro siglo XXI, precisamente, y que hace cuarenta años ya nos preocupaban los riesgos de las grandes bases de datos para nuestra privacidad, la brecha digital o la toma de decisiones algorítmicas sobre nuestra salud.

Volviendo al servicio de venta de disquetes con el código de la revista, y en nuestra habitual sección «cosas que no se incluirían hoy en una revista ni por casualidad»…

A SIMPL COMPILER PART 1 : THE BASICS

by Jonathan Amsterdam

An implementation of a compiler for a simple structured language

In this article— the first of a three-part series on the construction of a compiler for a high-level language— 1 will discuss the basics of the compiler. Next month 1 will talk about procedures and functions, and in the third part of the series 1 will describe some of the compiler's extensions.

Three of my earlier Programming Projects are prerequisites for this one. "Context-Free Parsing of Arithmetic Expressions" (August, page 138) explains the parsing technique I will be using. "Building a Computer in Software" (October, page 112) describes VM2. the virtual machine for which my compiler is targeted. And "A VM2 Assembler" (November, page 112) details the assembly-language code that the compiler will generate.

The SIMPL Programming Language

I will be describing a compiler for a language of my own design, called SIMPL. SIMPL, which stands for "SIMPL Isn't Much of a Programming Language," isn't much of a programming language. SIMPLs grammar is given in figure 1. There are a few points that are not described by the grammar. An identifier is any string of letters and numbers beginning with a letter. Unlike most implementations of Pascal, SIMPL is case-sensitive, so the identifiers READ and Read mean different things. SIMPL keywords, like PROGRAM and BEGIN, are capitalized. Comments in SIMPL are delimited by braces ({ }). As in Pascal, character constants are delimited by single quotes, but SIMPL also allows the backslash character ( \ ) to act as an escape. When followed by an n or a t, the backslash denotes a new line (carriage return) or tab; when followed by any other character, it denotes that character. For example, the character constant for the single quote looks like ' \ '.

SIMPLs WHILE and IF statements, like those of Modula-2, are explicitly terminated by an END. The AND operator has the same precedence as OR, and both have weaker precedences than those of all other operators, so it is unnecessary to put parentheses around expressions connected by AND and OR. Furthermore, expressions surrounding an AND or OR will be evaluated from left to right, and no more than necessary will be evaluated. For example, in the expression TRUE AND FALSE AND TRUE, the first TRUE will be evaluated and then the FALSE will be...

Y no podemos cerrar la sección sin incluir las interfaces por voz. Si alguien es capaz de viajar al pasado, por favor, tened la delicadeza de no comentarle al autor que a la cosa aún le faltaban unas cuantas décadas.

English Recognition

The ultimate in user-friendliness

Plain English is hardly ever used to communicate with a computer. This is unfortunate because it can be very effective, and programs that recognize and use relatively complex English sentences have been written for microcomputers. English gives you a variety of ways to express complex actions with a minimum of training and program interaction. Menus, on the other hand, are often highly complex and cumbersome— both for the user and the programmer. Special languages are difficult to learn and to design and implement correctly.

Some applications seem to demand a natural-language controlling mechanism (for example, database programs and games). When you design these kinds of programs, it is hard to predict the questions or commands a user might enter. Even in the largest and most expensive custom database systems, there always seem to be questions outside the scope of the programming.

However. English has been used successfully to control database programs. The first public success was LUNAR (Lunar Sciences Natural-Language Information System), which allowed scientists to query a large file

of physical and chemical data on the lunar rock samples brought back by the Apollo 17 mission in December 1972. More recently. Larry Harris of Artificial Intelligence Corporation has been successfully selling a database retrieval system called ROBOT (now INTELLECT) that uses natural English. It runs on IBM machines and licenses for tens of thousands of dollars. R:base CLOUT by MicroRIM. another English-based database-retrieval system, runs on microcomputers, but it's not cheap either. Several game designers have recognized the benefits of using English to communicate with computers and have tried to use it as their controlling mechanism. However, the approach they take seems a bit limited. The games often have trouble recognizing what should be valid directions or questions by the players.

Nos vamos ahora al tema de portada:

AN OVERVIEW OF CONFERENCING 
SYSTEMS

by Brock N. Meeks

A guided tour through COM, EIES, PARTI, NOTEPAD, and other systems

NUOSO LIVES on the African continent. Exactly where he lives and the name of his tribe is not important; Nuoso is a nonperson. Convicted of a crime against his tribal society, he is forbidden to communicate with his family, his friends, in short, with anyone. His communication cut off, Nuoso quickly withdraws from the village. Eventually he will cease to exist even in his own mind, and he will literally die from lack of communication.

Just as people need food, water, and shelter, so they need to communicate. From the earliest days of history, our ancestors sought better ways to communicate. Primitive maps scrawled in the dust gave way to cave paintings, where information retrieval entailed nothing more complicated than remembering the right wall in the right cave. But just as society became more complex, so did the communication needs of the population.

Early telegraph links, in Napoleon's time, had signal speeds of about two characters per second. In 1913 vacuum-tube repeaters were introduced to telephony, and a rapid succession of advancements in the world of electronics followed. In 1918 the first carrier system permitted several voice channels to occupy a single pair of wires. The early 1940s saw highcapacity coaxial cables beginning to replace twisted-pair cables. Microwave links emerged in 1946 with the capacity to carry more than 10,000 telephone channels. Today's phone system uses satellite links and will soon use fiber optics. In a hundred years our communication capability has risen from fifteen to a billion bits per second, from two to over a hundred million characters per second. And all for the sake of improving communication with each other.

The Birth of Computer Conferencing

Early in 1970, political and economic pressures set the stage for the creation of a revolutionary means of communication. In the fall of 1971 the entire economic structure of the United States fell under the control of President Nixon's wage-price freeze. Because of the tremendous need to handle the reporting and information dissemination of the price freeze, the Office of Emergency Preparedness (OEP) commissioned Murray Turoff to create a computerized version of the "conference call." Turoff responded by developing the Emergency Management Information System and Reference Index (EMISARI).

The EMISARI system operated as an electronic network linking the ten OEP regional offices. The new price controls created a nationwide demand for information, guidelines, rulings, official statements, and policy clarifications from businesses, labor unions, and administrators. Because EMISARI eliminated the constraints of time and geographic location, the OEP's regional administrators were able to secure time-critical information at their convenience. The instant access of EMISARI allowed Washington to update policy as it happened and gave all involved the opportunity to respond or ask questions— with both...

Sí, era obvio, querida lectora, que no podíamos estar hablando de los Zoom de los 80, sino de los Discords asíncronos (a todo estirar, que más bien son Reddits lo que se menciona) que podían soportar los ordenadores y redes de telecomunicación de la época.

A destacar: (i) no aparece la palabra «Internet» en la pieza y, (ii) os podéis ir a la página 174 para ver una separata sobre los efectos que iban a tener estos sistemas sobre personas y sociedades. Si no me equivoco, por cierto, el firmante estaba, en aquella época, fundando el mítico The Well.

Volvemos a los anuncios. ¿Cuántos años le echábais a Logitech y sus ratones?

Anuncio del ratón Logitech LogiMouse C7

Vale, unas cuantas le echábais al menos cuarenta. Pero… ¿cuántas sabías que Logitech se dedicaba a los compiladores?

Anuncio del Modula-2/86 de Logitech

(Según la Wikipedia, Logitech se fundó en Suiza en el 81 con el objetivo de crear un procesador de texto, y de ahí se pasaron a los «roedores». En 1984 ya los tenían inalámbricos (por infrarojos). El C7 que tenéis aquí arriba era su primer ratón de venta al público. Vosotros también habríais pagado más de doscientos euros (actualizando la inflación) por tener uno, ¿verdad? Lo de Modula-2, parece ser, fue solo una veleidad temporal.)

No me iré sin darle un repasillo a los ordenadores de la época, c

Dos portátiles de la época y sus especificaciones.

Ambos pesan 4,5 libras (unos dos kilos).

El Tandy 200 tiene procesador 80C85 de 8 bits a 2,4 megahercios, mientras que el NEC PC-8401A tiene un procesador compatible Z80 a cuatro megahercios. El Tandy tiene 24 Ks de RAM, ampliables 74, el NEC viene con 64, expandibles a 96.

Tienen pantallas LCD, de 10 por 16 caracteres el Tandy, 80 por 16 el NEC.

Ambos tienen módems de 300 baudios. Se destaca que ambos tienen baterías.

El Tandy tiene un sistema operativo propio, el NEC es CP/M 2/2. Ambos vienen con suites de software que incluyen procesador de textos y hojas de cálculo.

¿Os habéis fijado que mencionan que ambos pueden funcionar alimentados por su propia batería? (Comentan del NEC, que con cuatro pilas tipo C (¿quién dijo «batería recargable»?) aguantaba un par de horas.) ¿Y que no hablan de ningún tipo de almacenamiento interno? No me molesto en calcular cuánto serían hoy los mil dólares que costaban, pero sí que comentan que el NEC, funcional, se va más bien a más de dos mil… Y también comentaré que la pieza se cierra con un «para qué un laptop» que, dada la tecnología de la época, era una pregunta más que razonable. Oh, los maravillosos ochenta.

Y cerramos con un clásico del software:

The Norton Utilities

Tools for recovering data and 
directories

Peter Nortons data-recovery tool really recovers lost data. I've used it successfully dozens of times. Will it save every lost file? No. Unfortunately, there are some kinds of damage that the Norton Utilities can't repair. Can you tell managing before buying the program whether it will help you recover a particular file? The answer to this question has to be inconclusive. There are different kinds of lost data, and sometimes, even when you know  how the damage occurred, it is difficult to predict whether it can be repaired.

The simplest kind of loss occurs when you delete a file by using the ERASE or DEL commands in DOS. Even though your directory indicates that the file no longer exists, it hasn't really been erased. What's happened is that an instruction prohibiting DOS from writing in certain areas of the disk has been altered. Your data is retained until information is actually written into these sectors. If you change your mind and decide that you need the discarded data after all, the Norton Utilities will reverse the changes made by the ERASE command and your old file will be restored.

Certain types of equipment failures can produce more serious data losses. Every DOS-formatted disk contains hidden files called the boot record and the file allocation table; these, together with the directory, are used for managing the data stored on the rest of the disk. If garbled information is entered into these files— a common cause is a disk drive out of alignment— your data may become inaccessible. But sometimes the data files themselves may survive this damage; if so, you may be able to recover some or all of them.

Retrieving Lost Data

If you plan to use the Norton file-recovery procedure, you should be careful not to write on a disk with a lost file. You'll risk having new data entered in the sectors containing the file you hope to save. Once the old information has been overwritten in this way, it can't be recovered.

If you did write on the disk, there's still a chance that the sectors holding the erased file were not the ones that received the new data; this depends on factors like how much free space was on your disk and which version of DOS you're using. So until you actually begin the recovery procedure, you won't know for sure whether the lost file was destroyed. Still, it's best not to take chances. Make it a rule to never write on a disk containing damaged files.

Another good idea is to make a copy of your damaged file whenever possible. If you're working with floppy disks, you should use the DOS DISKCOPY command (as opposed to the COPY * . * command); DISKCOPY works by reproducing what's on the source disk exactly, byte by byte, so even deleted data is copied. Carrying out the recovery procedure on a copied version of the damaged file means that if you make a mistake, you'll have a chance to recopy the original and try again.

After taking these precautions, you can begin the file-recovery procedures. In general, for simple problems like unintentionally invoking an ERASE command, you can expect the Norton Utilities to retrieve lost files consistently. When a problem is caused by a current spike, static electricity, or a disk drive out of alignment, it's harder to predict how much of a file can be recovered; this is because so many different varieties of error can occur.

With many types of errors, the Norton Utilities can often help you salvage something. At times you may be able to recover only portions of a file. This is similar to what happens when the CHKDSK procedure in DOS restores only some of the lost clusters (groups of isolated sectors) in a file. In many cases you can save enough of a file to be able to reconstruct the missing portions with little trouble. But for some files, such as those created with spreadsheet programs, even a small amount of data loss can

Las Norton Utilities del celebérrimo (y actualmente octogenario) Peter Norton llevaban el mercado desde el 82 (y quizás más sorprendente, se lanzarían versiones nuevas hasta 2012).

Como de costumbre, tenéis los archivos de la revista Byte en archive.org, y si queréis, podéis ir avanzando trabajo con el número de enero ¡del 86! Hasta el año que viene :-).

Otra de podcasts

Yo recordaba haber escrito una entrada recomendando podcasts en obm. Y he buscado… y efectivamente, la escribí. ¿Alguien quiere apostar cuánto hace de aquello? Fue nada más y nada menos que en… diciembre… de 2011 (aquí la entrada correspondiente). Por aquello de no dejar de pasar más de catorce años entre recomendación y recomendación, aquí va la lista de 2025.

(Hay que decir, antes de entrar en materia, dos cosas.

  • La primera, que mi consumo podcastil se ha disparado en estos catorce años. En 2011 recomendaba diez podcasts. Ahora son, si no me he descontado… treinta y siete. El pronóstico del tiempo anuncia entrada tamaño sábana. Proceded con precaución.
  • Y la segunda, que servidor pasa bastante tiempo casi cada día en el transporte público y caminando, y que suele hacerlo con auriculares y el reproductor de podcasts1 a toda marcha. Y con «a toda marcha» quiero decir con los podcasts no musicales acelerados un 20% (30% para los [pocos] que están en castellano) y con la funcionalidad de saltarse las micropausas, con lo que un podcast de una hora suele durarme unos 45 minutos.

Y hay que decirlo, sobre todo, para que no os escandalicéis [mucho] cuando leáis las horas que he escuchado de cada podcast. Escandalizaos un 25% menos.

Fin del paréntesis.)

Los de deportes

Cosas que la gente no suele pensar de mí: soy fan del fútbol americano y otros deportes yanquis (la NBA, sobre todo). Y eso hace que mi podcast más escuchado sea The Bill Simmons Podcast, con un total de 123 horas en las últimas 52 semanas. Sí, más de cinco días enteros. Pero «solo» os podéis escandalizar por los cuatro que le he dedicado en la práctica 😬. En mi defensa, Simmons también entrevista a figuras de la cultura popular de vez en cuando 😇.

Le siguen los programas de KNBR, la radio de deportes de San Francisco, dedicados a mis «niners» y a los Golden State Warriors, con apenas 107 horas. Después viene 49ers Talk (de título autoexplicativo), con 71, The Athletic Football Show, con 62, o The Tom Tolbert Show, con 58 —Tolbert es un exjugador de la NBA (recaló también en la ACB una temporada), locutor de KNBR hasta que le echaron en un recorte presupuestario. Y cierran la lista los diferentes programas de la emisora The Game (también de San Francisco, quién lo habría imaginado), con 52, The Mina Kimes Show, con 47 (Kimes es de las pocas voces femeninas de esta lista, me temo, y la única de este apartado), y The Bill Barnwell Show, con 23.

En mi defensa solo diré que estoy intentando reducir mi consumo…

Los de música

Aquí solo hay un par de programas de radio… Turbo 3, de Radio 3 (una vez lo vi descrito como «Los 40 para mayores de 30», y algo de cierto hay en ello), y El Celobert, de Catalunya Ràdio, con 51 y 47 horas, respectivamente. Producen unas diez y cinco horas de contenido a la semana, pero yo solo me bajo los que «prometen» (en el caso del Celobert, los que repasan discografías y los dedicados a algún año o década, principalmente).

Los divulgativos

Comienza aquí la parte de la entrada que interesará más al lector (¡espero!). Se viene batiburrillo.

Ologies (47 horas) es el programa de Alie Ward dedicado a las «ologías»: de la astrobromatología a la neuropatoinmunología, pasando por la toxicología histórica. Los tres son programas de los últimos seis meses, lo juro. A veces me gustaría que fuera más al grano, pero es el podcast que lidera esta categoría por algo (ayudado, todo sea dicho, porque, junto con el siguiente de la lista, son los únicos que publican una hora de contenido a la semana). Calificación obm: 8 sobre 10.

Short Wave (44 horas) es el podcast diario de divulgación científica de la NPR, la radio pública estadounidense. La administración Trump le ha cortado el grifo de la financiación a la NPR (comprometídisima con el buen periodismo, y eso no está bien visto :-S), o sea que su vida pende de un hilo. Programas de diez a doce minutos, que últimamente se van a cerca de quince, engordados por las peticiones desesperadas de soporte económico por parte del público. Calificación obm: 8,5 sobre 10.

Because Language (31 horas), podcast de frecuencia irregular sobre lingüística, con episodios tirando a largos, que yo me (re)parto en capítulos. Muy fan, sobre todo, de Hedvig Skirgård. Calificación obm: 8,5 sobre 10.

Clear+Vivid (20 horas). ¿Os acordáis de Alan Alda? Yo, desde que en mi casa se consumía religiosamente la serie MASH, allá por los ochenta. Pues bien, resulta ser que, no contento con su carrera de actor, Alda se dedica desde hace un porrón de años a la divulgación científica, que es de lo que va mayormente este podcast, aunque de vez en cuando también pasan por él figuras de la farándula. Calificación obm: 8,5 sobre 10.

More or Less (17 horas), el programa de la Radio 4 de la BBC dedicado a reventar la estadística mal hecha o mal interpretada en los medios. Alterna programas de media hora semanales cuando está «en temporada» (con el economista Tim Harford a la cabeza) con cápsulas mucho más breves a lo largo de todo el año. Maravilloso. Mi reino por un equivalente «de aquí». Calificación obm: 9,5 sobre 10.

The Infinite Monkey Cage (13 horas). Más Radio 4 de la BBC. Esta vez con el físico Brian Cox y el cómico Robin Ince. En cada programa invitan a investigadores de renombre y a algún cómico para hablar de temas científicos diversos y hacerse unas risas. Vamos, un poco como lo que hace por aquí Naukas, pero con tono británico. En las últimas temporadas no me han hecho reir tanto como antes, pero sigue valiendo mucho la pena. El «episodio de las fresas» justifica, él solito, la existencia de no sé cuántas temporadas que han hecho. Es de 2013 y todavía lo recuerdo, vaya. Lamentablemente, Robin Ince acaba de dimitir porque en la BBC no le gustaban sus opiniones personales, excesivamente woke para ellos :-(. Calificación obm: 9 (9,5 en las primeras temporadas, que están ahí para escucharlas sin ningún problema).

Curious Cases (12 horas). Tercer y último podcast de la Radio 4 de la BBC. La matemática Hanna Fry y el cómico Dara ó Briain (¿estáis teniendo un déjà écouté?), que sustituyó hace un tiempo al genetista Adam Rutheford, eligen una duda científica de la audiencia, se buscan unas cuantas expertas en la materia e intentan darle respuesta de manera divertida. Calificación obm: 8 sobre 10.

Merriam-Webster’s Word of the Day (11 horas), Micropodcast (no llega a los tres minutos) diario de los de los diccionarios. Cada día, una palabra, su significado y su etimología (que para los latinos es la parte menos complicada, puesto que dos de cada tres palabras que hacen, más o menos, vienen del latín pasando por el francés, como buena parte de las palabras del inglés). Calificación obm: 8,5 sobre 10.

The Joy of Why (8 horas), podcast de divulgación científicomatemática de Quanta Magazine. Comenzó con el matemático Steven Strogatz (y centrándose en las matemáticas), pero desde hace una temporada lo lleva a cuatro manos con la astrofísica Janna Levin y se ha abierto a bastantes más temas. Calificación obm: 8 sobre 10.

Instant Classics (8 horas). De los últimos «fichajes» que he hecho. Tanto es así que todavía me falta como un mes de episodios por escuchar. La historiadora Mary Beard y Charlotte Higgins, de la sección de cultura del Guardian, repasan la historia clásica. Yo solo he escuchado epidodios «de romanos», pero veo que también hay alguno griego ya publicado. Calificación obm: 8,5 sobre 10.

Los «de tecnología»

The Vergecast (117 horas, disputándose el liderato con el podcast de Bill Simmons), el podcast de The Verge dedicado a la actualidad del mundo de la tecnología digital. Muy muy cerca de la calificación de imprescindible si se quiere estar al tanto de lo que sucede en el mundillo. Ha perdido un poco estos dos últimos años, porque se les han caído colaboradoras importantes y se ha convertido en «el podcast de Nilay y David». Nilay (Patel) muy bien (véase el párrafo siguiente), pero David (Pierce), por algún motivo, no me acaba de entrar. Tampoco ayuda su (muy comprensible, por otro lado) obsesión por la influencia de la administración Trump en el mundo yanqui. Mucha de esa influencia nos la vamos a comer en el resto del mundo, sí, pero al final me resulta cargante, qué le vamos a hacer. Aun así, muy bien. Especialmente cuando tienen a Joanna Stern de invitada (o a Victoria Song, o Allison Johnson). Calificación obm: 8,5 (9,5 hasta hace año y medio, y volverá al excelente si se lo curran un poco más).

Decoder (65 horas). El podcast en que Nilay Patel (véase el párrafo anterior) entrevista a figuras de interés del mundo de la tecnología (es casi un quién es quién de los CEOs de las tecnológicas). Normalmente muy informativo e interesante, con algún momento «oh dios mío cómo ha podido el mandamás este presentarse a la entrevista sin hacer mínimamente los deberes». Calificación obm: 9,5 sobre 10.

Syntax (55 horas). Solo de interés para interesadas en el mundo del desarrollo web. Pero si el tema te llama, a por él de cabeza. Los presentadores (y divulgadores del tema), Wes y Scott, muy majos e informativos. Calificación obm: 9,5 sobre 10.

Hard Fork (32 horas) es «el Vergecast del New York Times». Cuando comencé a escucharlo, bastante bien, pero ha llegado un momento en que se ha convertido en «el Vergecast radiofórmula» y me carga un poco, con lo que solo escucho los episodios con temas especialmente atractivos. Calificación obm: 7 sobre 10.

Hanselminutes (23 horas). De Scott Hanselmann hablamos por aquí hace menos de dos meses, y sigue siendo igual de majo que entonces. En su podcast entrevista semanalmente a un personaje del mundo de la tecnología (del desarrollo de software las más de las veces), relajado pero preguntando con criterio. Si el personaje no te llama, te saltas el episodio pero, al menos en mi caso, sucede con muy poca frecuencia. Calificación obm: 8,5 sobre 10.

Igalia Chats (20 horas) es el podcast gallego de esta lista… pero está en inglés. Y es que Igalia es una cooperativa gallega, pero distribuida por todo el mundo, que es la empresa más importante del mundillo web de la que no has oído hablar nunca (a no ser que seas lector habitual de este blog (véase, véase y véase) o escucharas el episodio de Despacho 42 que les dedicamos hace ya tres años (y que sigue siendo exactamente igual de interesante que entonces). Se dedican al mundo del código abierto, y al desarrollo de navegadores web en particular. Usas su código cada día (si eres lector de 0bm, con total seguridad; si no lo eres… casi que también, incluso cuando no estás delante del ordenador ni del móvil (escuchad el episodio, escuchad)) y la vida de quienes se dedican al diseño y desarrollo web es mucho mejor gracias a ellos. Con su podcast podrás entender por qué los estándares y los navegadores web son como son. Casi imprescindible para quienes os dedicáis al mundillo, pero con muchos episodios muy interesantes solo con que tengas el más mínimo interés en cómo funciona la web (y la web es como interactúas con el mundo un montón de horas a la semana, o sea que…). Calificación obm: 9,5 sobre 10.

Scott and Mark Learn To… (9 horas). Y cuando hablamos de Scott Hanselmann también hablamos de Scott Rusinovich y el podcast sobre desarrollo de software que tienen juntos desde hace poco (comenzaron este verano), un tanto quirky, pero lo suficientemente interesante como para que diera pie a una entrada de este podcast. Calificación obm: 8 sobre 10.

Despacho 42 (5 horas). ¿Por qué habré dicho que no hay podcasts imprescindibles? El podcast de tecnologías digitales y personas. El señor que más oiréis es un tanto particular, pero hablan con gente súper interesante de temas apasionantes. Calificación obm: el jurado se recusa 😅.

Los ¿culturales?

Tetragrammaton (71 horas) es el podcast de Rick Rubin, productor de discos de los Beastie Boys, Run DMC, The Cult, Danzig, Slayer, Red Hot Chili Peppers, AC/DC, Johnny Cash, Tom Petty, Rage Against the Machine, Nusrat Fateh Ali Khan, Audioslave, Weezer o Shakira (sí, Shakira). Y juro que me dejo nombres importantes, y no pocos. Comprobad el enlace. Me juego un café a que hay un disco que te gusta en que Rubin ha tenido un papel importante. Y se sienta casi cada semana con personajes del mundo de la música (y más) para hablar largo y tendido sobre sus procesos creativos. Yo me enganché con el episodio del productor Jimmy Iovine, pero también tenéis a Trent Reznor, Rosalía (en 2023), la diseñadora Paula Scher, Nick Cave, Terry Gilliam, Edward Norton, el arquitecto Bjarke Ingels, Francis Ford Coppola… (de nuevo: me dejo unos cuantos nombres importantes). Advertencia: de vez en cuando también entrevista a tecnobrós y personajes esotéricos. Calificación obm: 9,5 (si pasamos de tecnobrós y esoterismo).

Es la hora de las tortas (34 horas). Va de cómics. Cuatro señores se juntan semanalmente para hablar de tebeos (de los de superhéroes, pero también de lo que hemos venido a llamar novelas gráficas), con formatos (de podcast) diferentes. Yo recomendaría, sobre todo, sus repasos a los premios Eisner a lo largo de la historia. El episodio que le dedicaron a Darwyn Cooke, de lagrimita. Como uno es bastante limitado en su conocimiento comiquil, solo escucho la mitad de los episodios, más o menos. Su «club de lectura» me ha hecho descubrir alguna joya, por cierto. Calificación obm: 8,5 sobre 10.

Radiolab (32 horas). Quizás el podcast que hizo que hablemos de podcasts. No inventó las narrativas para la radio, pero las llevó un paso (o dos) adelante. Más de veinte años en antena y en RSS. Divulgación científica, pero no solo eso. Cultura. Y la garantía de que el guion y la producción son excelentes siempre. Calificación obm: 9 sobre 10.

The Ringer-Verse (26 horas). Cultura nerd de la factoría de Bill Simmons en formato «amigotes que se van de birras». Pelis y series, cómics, videojuegos. Servidor les escucha cuando hablan de cosas que ha leído, visto o escuchado. Calificación obm: 8,5 sobre 10.

Video Game History Hour (23 horas). El podcast de la Video Game History Foundation. Para no perdérselo si te interesa la historia de los videojuegos desde sus orígenes a la actualidad, pero también si te interesa la historia de la tecnología en general, o incluso cómo conservar y documentar la cultura de los últimos cincuenta o sesenta años. Y, en ese caso, recomendable comenzar a escucharlos desde el principio. Calificación obm: 8,5 sobre 10.

A History of Rock Music in 500 Songs (22 horas (y más de 200 en total para las 182 canciones que lleva de momento)). Exactamente lo que dice el título. Proyecto monumental de un über-nerd que se documenta hasta el infinito y más allá. Cada canción da pie a hablar del grupo que la llevó a la fama, de cómo impactó en la evolución de la música de la época y de lo que pasaba entonces en el mundo del rock. Calificación obm: 9 sobre 10.

X-Ray Vision (18 horas). Véase lo dicho sobre Ringer-Verse. Con un pa de nerds muy considerables, Jason Concepcion (ex del equipo de Bill Simmons) y Rosie Knight (periodista y guionista). Cuando hablan de cosas que he visto o leído, me gustan más que el equipo Ringer-Verse… pero eso pasa menos de lo que yo querría (y de aquí que el contador de horas esté más bajo). Advertencia: forman parte de una empresa de podcasts que mete publicidad en cantidades industriales (como la que se pone en las radios comerciales, vaya). Calificación obm: 9 sobre 10.

The Rewatchables (16 horas). Tercer (y último, que ya acabamos) podcast de la factoría Bill Simmons. Dedicado a películas «re-mirables», con predilección por los ochenta y los noventa. Como Ringer-Verse, formato charla de amigotes con unas cañas de por medio, pero a ritmo más relajado. Nivel de documentación de alto a muy alto: seguro que te encuentras con cosas que no sabías. Para ir escuchando aquellas pelis que has visto, o para animarte a ver algunas de las que tocan y no viste en su momento. Calificación: 9 sobre 10.

Marea Nocturna (14 horas). El crac Jordi Sánchez-Navarro se junta con otros otros tres individuos con conocimiento enciclopédico del cine fantástico y de terror (también hablan de ciencia ficción, pero poco para lo que yo querría). Uno no es ni de fantástico ni de terror, pero siempre tocan temas interesantes y engancha. Calificación obm: 9 sobre 10.

Tape Notes (13 horas). Otro descubrimiento reciente (de agosto). Aun estoy recuperando episodios de 2022, que llevan funcionando desde el 17. Otro podcast de documentar procesos creativos, especializado exclusivamente en la producción musical. Se sientan con una banda y su productor, y a explicar batallitas. O eres mucho más nerd del tema que yo, o lo mejor es seleccionar las bandas que te interesen. Han pasado por allí Wolf Alice, Bombay Bicycle Club, Kate Tempest, Floating Points, Tune-Yards, DJ Shadow, Caribou… (he dejado de apuntar en el episodio 42, y llevan 171: seguro que hay algún grupo que te llama). Calificación obm: 9 sobre 10.


Pues nada, ni tres mil palabras 😬. Os pediría que me recomendarais más podcasts, pero ya veis que estamos en el nivel en que un podcast más es una derrota. Una derrota maravillosa, pero una derrota. Va: si me estoy perdiendo algo, dejad vuestra recomendación en los comentarios, y ya veré cómo me lo hago.

Dentro de otros catorce años, más. O igual me animo y me vuelvo a poner dentro de siete.


  1. ¿Qué reproductor de podcasts? Servidor tira de Podcast Addict (el nombre de la app es adecuado, reconoceréis), pero creo que «lo que se lleva ahora» es Pocket Casts. Yo me quedo en Addict porque me compré la licencia «premium forever» hace un millón de años y porque las estadísticas de ese millón de años están escondidas ahí dentro. ↩︎