Lo de las redes sociales y los menores de 16 (y los tecnobrós)

…o César se mete en un charco al que no le habían llamado.

Si algo tuvo más eco el día en que Pedro Sánchez anunció que se apuntaba a lo de prohibir las redes sociales a los menores de dieciséis, fue la respuesta de Pavel Durov y la contrarréplica de Sánchez. Es por eso que, lo primero es dejar claro que nada más lejos de mi intención que defender a Durov —véase Arrest and indictment of Pavel Durov en la Wikipedia (y, en particular, la sección Background) sobre lo de agosto del 24, por ejemplo, para entender que no es una figura que valga la pena defender— ni a ningún otro tecnobró con red social y patrimonio de 8 cifras en adelante. (Y de las opiniones de meloncete mejor ni hablar, claro.)

Y también debo decir que tampoco estoy en contra de regular el acceso a determinados servicios y contenidos en función de la edad y, en particular, el acceso a redes sociales (y en especial a las grandes redes sociales) para las personas menores de dieciséis. He leído en algún sitio que igual lo que habría que prohibir es el acceso a esas redes a hombres blancos mayores de una cierta edad (incluyéndome a mí), y el argumento tiene bastantes atractivos, pero sigue siendo una restricción por edad.

(Podría ponerme puñetero y buscar casos en que esa regulación tiene efectos negativos, pero no es el objetivo del ejercicio. Lo único que tengo claro de todo esto es que por nada del mundo querría tener nada que ver con la decisión de regular algo así. Ni a punta de pistola.)

Queda, desde luego, definir qué es una red social. Está claro que la medida se dirige a Instagram y TikTok, especialmente. Pero… si un videojuego tiene algún tipo de mecanismo de comunicación entre jugadores (y cuál no lo tiene)… ¿es una red social? Porque me da a mí que (i) lo son, en la práctica, y (ii) si Instagram y TikTok son nocivos para mucha de la gente que los usa, los canales de comunicación de muchos de esos videojuegos lo son al menos igual. ¿Es el correo electrónico una red social? ¿Los SMS del teléfono smart-o-no de niños y niñas a partir de los doce?

Si este blog tiene comentarios (que funcionan como funcionan, lo sé 🙏) y en alguna ocasión (con muy muy poca frecuencia, pero alguna vez ha pasado) se establece comunicación entre quienes dejan comentarios… Entre el primer paréntesis y el segundo, tenéis razónm no pasaría nada por quitar los comentarios de obm, cierto. Pero… ¿vamos a tener que establecer limitaciones de edad en los comentarios de todos los blogs del mundo? Vaya, que, si opero un blog (fuera de WordPress.com y similares) ¿voy a tener que comprobar la edad de cualquiera que publique un comentario? (En obm, me repito, no es problema: se cierran los comentarios y aquí paz y después gloria, pero…) ¿Y las secciones de comentarios de los diarios en línea? (De estas, ciertamente, se puede afirmar que sería una victoria para la sociedad que desaparecieran, tenéis razón.)

También tiene que decirse que, sin haber visto la propuesta de norma y, sobre todo, cómo se pretende hacer la implementación en la práctica, pero después de haber visto algunos ejemplos de cómo se están implantando las normas de restricción de acceso por edad (sobre todo a contenidos para adultos, o, lo que es básicamente lo mismo, pornografía) que van apareciendo por todo el planeta, esas implementaciones me provocan, cuando menos, dudas. La capacidad del estado español de hacer leyes muy bonitas en la teoría, pero cuya aplicación práctica deja bastante que desear, diría yo, ha sido ampliamente demostrada. Y eso que en España tenemos un DNI obligatorio, y eso, al menos en principio, debería facilitar las cosas.

Así que, más allá de definiciones, la principal duda (o mi principal duda, al menos), es sobre esos mecanismos que voy a tener que utilizar para demostrar mi mayoría de edad en aplicaciones como WhatsApp, Telegram y Signal, o en redes sociales como Instagram (sí, querida lectora, me temo que debo confesar que tengo cuenta en Instagram (y Bluesky, y en Mastodon y, si me apuras, en last.fm, que también es una red social)), y cómo me van a garantizar la privacidad de esos datos. En Europa se supone que eso va a hacerse a través de eIDAS 2… pero aún no lo tenemos implementado, no se tendrá hasta finales de este año (y, por todos los dioses, que no corran con el desarrollo, que nos va la privacidad de todas en ello)… y yo, antes de probar un arma de potencial destrucción masiva de la privacidad, preferiría que hicieran unos cuantos meses de pruebas con fuego real antes de verme obligado a usarla.

Adiós a los servidores de Mastodon operados por particulares… Lo que podemos asegurar es que comprobar la edad de las personas que usan un servicio va a ser otro servicio… y va a requerir unos recursos. Seguro que habrá empresas (grandes consultoras, por ejemplo) que se están frotando las manos por ofrecernos esos servicios… a un módico precio. Si hay que pagar por proteger a un colectivo amenazado, se paga, desde luego. Pero me da a mí que esas comunidades virtuales que se sostienen gracias a la buena voluntad de sus operadores y operadoras… van a ver cómo se tensiona aún más esa buena voluntad. Y los que se lo puedan permitir, lo harán pasando por la caja de empresas que no nos caen nada bien.

¿No debería regularse el acceso a redes sociales, pues? Me repito: no estoy en contra de regular el acceso a determinados servicios y contenidos en función de la edad y, en particular, el acceso a redes sociales para las personas menores de dieciséis. Pero, si vamos a hacerlo, o incluso si vamos a aplaudir la medida, como mínimo podríamos intentar informarnos antes de cómo se va a hacer, inventariar los potenciales efectos secundarios que va a tener hacerlo (como los tienen todas las normativas, y la ausencia de normativas) e incluirlo todo en la discusión. Si hay que comprar, se compra. Pero sabiendo el precio.

Sandisk Extreme Fit: mide antes de comprar

(Hoy toca batallita especialmente intrascendente, quedáis avisados.)

Dichoso primer ingeniero el que decidió que no tenía sentido poderle cambiar el disco a un portátil. Desde entonces, todos acabamos haciendo, tarde o temprano, encaje de bolillos. Porque, por enorme que te parezca un disco, dentro de dos años ya no va a ser enorme, y dentro de tres será demasiado pequeño. En Sandisk, que tienen vista, anuncian sus USB Extreme Fit (aquí la página) con esta imagen:

Vamos, el USB ideal para dejarlo conectado al portátil, y se acabó (durante una temporada) tener que, o bien preocuparse por el espacio en el portátil, o bien conectar y desconectar continuamente un «pen». Y para allá que me fui, a por mi USB de 512 gigas (ir por ir…). Y todo bien, hasta que lo he enchufado…

Mono, ¿eh? Ahora… ¿veis que deja un espacio tirando a justo para el puerto USB-C que queda justo al lado? Pues bien: para enchufar el portátil a los hubs que tenemos en la oficina, cuyos cables no son lo más ajustados del mundo, me he pasado un rato hasta que he encontrado uno que había perdido su carcasa, porque si no, no entraba de ninguna de las maneras:

Ni un milímetro de margen, oiga.

Hay cables USB-C que no dan ningún problema (el de mi «ladrón» USB, sin ir más lejos, afortunadamente). Pero. Antes de comprar un Sandisk Extreme Fit, si vuestro portátil tiene los puertos USB-C uno al lado del otro, echadle un vistazo al resto de cosas que queráis conectar antes de comprar.

Byte, enero del 86

Lo de siempre: seguimos con nuestro proyecto de leernos la revista Byte… con cuarenta años de retraso, y esta vez con un añadido final extra. El tema del mes… ¡la robótica! (Tema que vamos a ignorar bastante completamente, porque no me pone nada. Pero las portadas de Byte son un clásico, o sea que aquí va la del mes:

Portada de la revista Byte de enero de 1986. El tema de portada es la robótica. La ilustración es un huevo, que rompe desde dentro un brazo robótico, como si fuera un polluelo al nacer

Comencemos, pues, por la editorial:

A Threat to Future Software

Last October Digital Research Inc. yielded to pressure from Apple and agreed to change its GEM software to decrease its resemblance to Apple Macintosh software. (GEM is an operating environment for several MS-DOS- and PC-DOS-based computers that allows a user to interact with a computer via windows and icons rather than the usual text-only commands.) Let's ignore, for the moment, the uncertain worth of a "visual copyright" (the legal term for Apple's copyrighting of the overall "look" of Macintosh software). Let's also ignore the ethics of Apple's actions. The point to focus on, instead, is that Apple's actions are to no one's benefit: Both the microcomputer industry and Apple itself will suffer from their effects.

Apple's actions will slow the growth of the microcomputer industry, which will hurt Apple by shrinking the potential microcomputer audience. Already, several small companies are worried that some project they're working on (and, often, they with it) will be cut down because it is "too Mac-like." In addition, the success of Apple's tactics may encourage other companies to try similar actions, thus increasing the paralysis and anxiety in the industry.

These actions will stifle the incremental evolution that is at the root of any significant growth in our industry. By "incremental evolution" I mean the process of gradual improvement of a product type that eventually leads to a more robust, useful product. For example, Ashtonlate's Framework did not spring full-blown from the heads of the programming team at Forefront. It had its roots in Dan Bricklin's and Bob Franston's VisiCalc spreadsheet, Sorcim's Supercalc (which added functions and sold to a market not supported by VisiCalc), Mitch Kapor's VisiPlot (which gave the distinctive highlighted menu bar now used in so many programs), the software integration of Lotus 1-2-3, and the icons, windows, and pulldown menus of— well, you get the point. If companies are afraid to go to market with what they think are incremental— but distinct— improvements on a basic design, we will become a stagnant industry bounded by the usual and comfortable.

According to Irving Rappaport. Apple's associate general counsel, Apple's intent is to prevent other companies from creating products that are easy to use because of their similarity to the Macintosh. "If people look at it and say, 'Gee. that's like the Mac— I can operate that,' when that's the result you get, it's over the line" of infringement of Apple's copyrights. The effect of this intent is to fragment the industry in the face of what was becoming a de facto standard for human-computer interaction. This lack of standardization will cause many people to stay uninterested in computers because they will have to relearn basic skills with each brand of computer they encounter. (Imagine how many people would drive cars if car manufacturers used different controls for every function in the car.)

Apple might argue that, by claiming a larger slice of a smaller pie, it will still come out ahead. We believe that it will be hurt directly by its actions and will end up with a smaller piece of a pie that is itself smaller. Apple will, in effect, build a wall around its ghetto of Macintosh products, thus limiting its own growth and encouraging people to "live" elsewhere.

Texas Instruments' TI-99/4A provides a good example. TI announced that it intended to directly profit from all software written for its machine by forcing third-party software developers to publish their products through TI. When a brave few brought out 99/4 cartridges on their own. TI added a proprietary chip to their cartridges that the computer required before it would run the enclosed software. Needless to say, the few developers working on 99/4 software wisely turned to support other computers.

The same may happen to Apple. IBM already sells over half the business computers bought today, and IBM PC-compatibles account for a fairly large slice of what's left. If Apple has been slowing the erosion of its market share to IBM with the Macintosh line (and I think it has), its current moves will alienate software and hardware developers, who will begin to lavish their creativity upon the more congenial IBM PC-compatible marketplace. And where innovation goes, the market will follow.

Consider: IBM made its software and hardware architectures open. It allowed the development of innumerable hardware clones, many far more similar to IBM products than GEM is to the Macintosh desktop; consequently, the IBM PC-compatible market far outdistanced its combined competitors in less than two years. On the other hand, Apple is actively discouraging not only copying but also borrowing from its software design. It claims the sole right to benefit from a set of ideas that Apple itself has borrowed and improved on (the most direct borrowing was from work done at Xerox PARC). Given these two opposing directions, what do you think will happen?

A Call to Action

We at BYTE call on Apple to recognize the long-term implications of its actions and limit itself to prosecuting cases where the alleged theft is not of "looks" but of actual program code. Barring that, we call on Apple to license its allegedly copyrightable interface to markets that do not directly compete with its current or planned product line— if the licensing fees are reasonable, everyone will profit.

If neither of these things happen, we call on the judicial system to hand down rulings that reflect a strict interpretation of the visual copyright laws— that is. that a product is at fault only if it shows no distinguishing characteristics in appearance or operation from the alleged original; this would protect products that show incremental evolution. We also call on the industry to do two things. The first is to stand up to Apple and see the case decided on its legal merits. The second is to develop an alternative graphic interface and allow its wide adoption throughout the non-Apple computer community; in this way. the rest of us can get on with the business of making computers— in general— good enough that everyone will want to use them.

[Editor's note: Apple maintains that the agreement covers "only three specific products," but one of them is GEM Desktop, which defines the overall GEM environment. Also, according to Kathleen Dixon of Apple, the agreement includes any custom work DRI has done, including the modified GEM software that Atari uses in its 520ST computer] ■ —Gregg Williams, Senior Technical Editor

¿Creíais que Apple se quejaba solo de que Microsoft la copia? (Todo sea dicho: a lo largo de la historia Microsoft ha copiado cosas de Apple… y hasta hay casos en los que Apple ha copiado de Microsoft. Y donde dice Microsoft, puede decirse Google/Android.) Pues antes de quejarse de Microsoft y Windows, se quejaron de GEM, la capa gráfica de Digital Research para sistemas PC/MS-DOS (y no solo estos: volvemos sobre el tema más abajo). Respetando la propiedad intelectual de Apple (más que el editor de Byte, después de leerle), comparto con él que con estas cosas, entonces y ahora, el consumidor sale perdiendo bastante.

Seguimos con los «microbytes» la sección de noticias breves. En esta ocasión, por un lado, evolucionamos con algo que ya habíamos visto por aquí… a las pantallas planas LCD les llega el color:

Epson, Toshiba Announce Color LCDs

Toshiba has developed an active-matrix, eight-color, 640- by 480-pixel, 10-inch-diagonal liquid-crystal display (LCD) that nearly matches the brightness of a standard color TV. No pricing or availability information was given.

Epson announced a backlit high-contrast, 5.13-inch-diagonal color LCD with a resolution of 480 by 440 pixels (one-third of which are red, green, or blue). Epson says the display's contrast ratio is more than 10 times that of a standard reflective LCD and has a viewing angle greater than 60 degrees. Epson also unveiled a high-contrast, 9-inch-diagonal monochrome LCD with a resolution of 640 by 400 pixels. Samples of both displays will be available during the first half of 1986; prices should be approximately twice as much as standard reflective LCDs.

Epson also announced two 10-inch-diagonal monochrome displays using ferroelectric smectic-C crystals. The 640- by 400-pixel and 640- by 200-pixel displays are said to have high contrast ratios, low power consumption, and moderate cost; samples may be available late this year.

Y por el otro (literalmente, hay que girar la página para llegar a ello), desmontamos un poco el mito de que Kodak murió por no innovar en fotografía digital:

Kodak Proposes Tiny Magnetic Disk for Photographs

Eastman Kodak, Rochester. NY, has lined up more than 30 companies— including Sony, Hitachi, and Fuji— to support its 47-mm (1.85-inch) floppy disk for storage of electronic still images. The 800K-byte disk can store up to 50 images of 240-line NTSC video. Eventually, the disk is intended for use in cameras; for now, Kodak is working on a 35-mm film-to-disk transfer station for use in developing labs and a still-video player/recorder for the disks.

…y es que pocas compañías investigaron e invirtieron en el campo de la fotografía digital como Kodak, que acumuló una inmensa bolsa de patentes sobre el tema. Lo que mató a Kodak (bastantes años después de 1986) fue, sobre todo, el miedo a canibalizar su mercado «químico».

Nos vamos, ahora, a la publicidad:

Anuncio del modem Hayes Smartmodem 2400

Sí, amigas, 1986 es el año de volar a 2400 baudios, no a los «viejos» 1200. Casi dos kilobits y medio, sí. ¿Recordáis la tortura que es tener cobertura «solo» 4G y descargar cosas a pocos megabits? (Pero no os emocionéis: no todas las líneas telefónicas de la época soportaban esa barbaridad de velocidad.)

Y seguimos mirando anuncios, con un momento histórico: ¡el primer anuncio que vemos de Windows!

Gran texto, Introducing Powe Windows. Vemos una pantalla de ordenador con quizás 8 colores y cuatro ventanas, que no se solapan, sino que se muestran una al lado de la otra. También vemos un ratón y un disquet de 5 ¼ con la etiqueta Microsoft Windows.

No os pongo el publirreportaje entero (8 páginas tenía en total, que Microsoft ya tenía unos dineros en la época), pero sí os dejo aquí esta maravilla de gráficos:

Doble página con una gran imagen de una captura de pantalla con hasta cinco ventanas mostradas en pantalla, de nuevo sin solaparse. Vemos la aplicación de relog, una ventana con un primitivo explorador de archivos, un "filing assistant" y una gráfica de barras en riguroso blanco y negro.

¿Reconocéis vuestro Windows «de toda la vida»? Yo tampoco.

Hablábamos antes de GEM… y lo recuperamos aquí, porque en este número se analizaba el Atari ST, la tercera de las máquinas con procesador Motorola 68000, después del Macintosh y el Amiga (recordemos siempre: Amiga mejor que ST mejor que Mac). Y el sistema operativo del ST era, efectivamente, el GEM de Digital Research (bueno, GEM era, como con los PCs, la capa gráfica sobre TOS, el verdadero sistema operativo).

The Atari 520ST

The 68000 unbounded

Editor's note: The following is a BYTE product description. It is not a review— for several reasons. Some of the equipment we received, such as the hard-disk drive, were prototypes, and at the time of this writing, software is scarce. Atari has not yet completed its BASIC interpreter, and the operating system. TOS, remains unfinished. Nonetheless, we are as intensely interested as our readership in new technology, and we feel we have learned enough to share some of the results of our investigations. We began our work on this description as soon as we were able to get a system from Atari. A full review will follow in a subsequent issue.

For many years the public has equated the Atari name with arcade games and joysticks. In truth, the Atari 400/800/XL computer line is technically at least comparable if not better than other 8-bit machines, so it should not be a surprise that the company's latest venture, the 520ST (see photo 1), is a competitive 68000 system. Indeed, we are most impressed with the clarity of the graphics, with the speed of the disk I/O (input/output), and with the 520ST's value.

The system is not without its problems. The desktop is less effective than the Macintosh's, the keyboard has an awkward feel, and the current operating system makes it impossible to switch between high-resolution monochrome and low- or mediumresolution color without installing the other monitor and rebooting. Nonetheless, we are left with a very favorable impression; several software-development languages are already available, including FORTH, Modula-2, and C. With them, you can tap the power of the 68000 at a most reasonable price.

System Description

The Atari 520ST is a keyboard computer. Like the Commodore 64 and the Atari 400/800, the 520ST keyboard unit contains the microprocessor, the memory, the video and sound circuitry, and so on. The power supply disk drives, and monitor are external devices. The 520ST has a variety of ports, but there are no internal expansion slots.

The In Brief box on page 90 summarizes the features of the Atari 520ST. For $799, you get the CPU, a 12-inch diagonal monochrome monitor, and one external single-sided double-density floppy-disk drive. For $999, you get the same system with a 12-inch RGB analog monitor in place of the monochrome monitor (see photo I). Both systems provide 51 2 K bytes of RAM (random-access read/ write memory), a Motorola 68000 microprocessor, MIDI ports with a transfer rate of 31,2 50 bps (bits per second), a DMA (direct memory access) port with a transfer rate of 10 megabits per second for a hard disk or CD-ROM (compact-disk read-only memory), and much, much more. To be sure, owners will make some sacrifices. The unit does not have an RF (radio frequency) modulator for television output, every peripheral has a separate power supply (wire haters beware), and the operating system

currently rests in RAM, stealing over 200K bytes from your workspace. We have summarized other problems below, but almost all are insignificant when you consider what you do get for the money. And rest assured, the system works. Our first system, like most of the first production units, had to have several chips reseated. It now functions properly, and we have not heard of any similar quality-control problems on the latest 520STs.

The Hardware Design

The heart of the 520ST is the MC68000, with its 1 6-bit data bus and 24-bit address bus, running at 8 MHz (see figure 1). The rest of the system was designed to stay out of the 68000's way. (See the 520ST motherboard in photo 2.)

The Atari design team began work on the 520ST in May 1984. From the start, they had several specific goals in mind. The first was to choose a fast microprocessor and do everything to let it run effectively at full speed. To the Atari team, that meant maximizing bus bandwidth and relegating as...

Y… ¿vamos a comparar GEM con Windows, tal y como lo presentaba la mismísima Microsoft en su campaña publicitaria?

Dos fotos de pantallas con GEM a media resolución en una y a alta en la otra. La presentación es muchísimo más sofisticada que la de Windows que hemos visto antes, con ventanas que se solapan y los menús del sistema.

(Eso sí: reconoceremos que el parecido con el sistema operativo de los Macintosh es más que notable. Es innegable.)

Seguimos con nuestra sección «esto no lo ponemos en una revista hoy, que nos lapidan» con un programa en BASIC para dibujar superficies 3D:

EASY 3-D GRAPHICS

BY Henning Mittelbach

A BASIC program for plotting 3-D surfaces

AFTER READING "Budget 3-D Graphics" by Tom Clune (March 1985 BYTE, page 240), I decided to develop a low-cost program for three-dimensional graphics on small computers. 

The program is based upon the formulas for an axonometric projection
in relation to the origin, as shown:

XB = X*COS(PHI) - Y*COS(PSI) 
YB = X*SIN(PHI) - Y*SIN(PSI) + Z

Depending on the graphic window of the computer used, you may change these formulas to

XB = XO + X*COS(PHI) -Y*COS(PSI)

YB = YO - X*SIN(PHI) - Y*SIN(PSI) - Z

where XO and YO will represent the origin of the axes, as shown in figure 1. (I developed the program on an Apple II, with XO = 110 and YO = 180.) Also in figure 1, (XB.YB) is the point to be plotted, and PHI and PSI are the angles referring to the horizon. The function Z = F(X,Y), in line 200 of the program, needs a scaling factor F (line 210) that the user has to introduce in the program.

The Program

The program starts at lines 100 to 180 where you set the parameters X0, Y0, ...

Ojo, que el programa tenía una cierta complejidad y hasta ocultaba las superficies ocultas:

Gráficas de las funciones seno por coseno, exponencial del seno de x por y) y equis por y.

(Si esto no os fuera suficiente, os podéis ir a la página 397 para ver cómo implementar el algoritmo de Euclides para calcular el máximo común divisor.)

He dicho que me iba a saltar la robótica, pero sí me quedo con uno de los artículos de la sección:

MACHINE VISION

by Phil Dunbar

An examination of what's new in vision hardware

THE POTENTIAL APPLICATIONS of machine vision are many and obvious. Everything from quality assurance to robotic navigation could benefit from the availability of reliable vision systems for computers. Perhaps less obvious, though, is the variety of problems that hamper development of the technology. These problems appear on all levels of machine vision— hardware, low-level analysis, and high-level AI (artificial intelligence) manipulation of low-level data. This article will discuss problems that plague the development of vision-system hardware and indicate some of the technology that has emerged to address these problems.

You might think that the most difficult hardware problem in vision systems is digitizing the high-frequency analog stream of camera data. In fact, that is not so. Currently, machine vision algorithms use gray-scale (i.e., monochrome intensity) video information almost exclusively. Such information can be adequately extracted from an analog signal by a 6-bit or 8-bit A/D (analog to digital) converter. Real-time conversion requires approximately a 10-MHz conversion rate to digitize a 512- by 512-pixel image.

These rates can be achieved with flash converters, pioneered by the TRW company when it introduced the TDC 1007 in 1977. Flash converters employ (2")-l comparators to perform A/-bit conversions. That is, an 8-bit flash comparator requires 25 5 comparators to operate. Since all possible digitized values can be compared to the signal at once, the throughput is much greater than with successive approximation methods. Of course, the complexity of the converter rises exponentially with linear increases in resolution. Notable among the commercially available flash converters is TRW's 8-bit monolithic chip flash converter (TDC 1048) that can operate at speeds necessary for real-time machine vision applications and costs about $140 per unit. The real problems with vision hardware revolve around the cameras. The problems fall into two basic categories: video signal standards and limitations of particular camera hardware technologies.

Television Standards

Much of robotics suffers from a lack of standards. Machine vision, on the other hand, suffers from the existence

of video signal standards that are not appropriate for our needs. Those standards were created by and for the television industry. Since the entertainment industry is still a far more lucrative market for camera manufacturers than machine vision, few image sensors and cameras deviate from television standards.

The monochrome video signal standard used in the United States, Japan/ and most of the Western Hemisphere is RS-170, a subset of the NTSC (National Television Systems Committee) standard. Europe uses the international CCIR (Consultative Committee, International Radio) standard, which is similar to, but not compatible with, RS-170. Since both standards present essentially the same problems to machine vision applications, I will limit my remarks to the RS-170 standard.

The RS-170 standard defines the composite video and synchronizing signal that your television uses (see figure 1). The image is transmitted one line at a time from top to bottom of...

Y después de la visión venía una pieza dedicada a los sensores táctiles, otra sobre navegación autónoma y una sobre IA en visión por ordenador. De nuevo, uno no sabe si estamos en el 86 o en el 26 (y no se siente con ánimos de explicar a los autores que a la cosa aún le quedaban unas pocas décadas).

Y echamos una última mirada a la publi, y es que creo que no habíamos reflejado por aquí la maravillosa campaña «Charlot» de IBM:

Anuncio a doble página. A la izquierda leemos que el PC ha llvado el rendimiento a una nueva altura. Al la derecha vemos a Charlot sentado  sobre una pila kilomética de documentos de todo tipo, trabajando con un PC de IBM.

Que no fue un único anuncio, os lo aseguro: años, duró la campaña, siempre visualmente maravillosa. Os dejo aquí un recopilatorio de anuncios televisivos.

Y nos vamos a ir con otro momento histórico:

The Acorn RISC Machine

A commercial RISC processor
by Dick Pountain

Acorn Computers Ltd. is one of the U.K.'s most successful computer companies, but like many others, it had its share of financial problems during the depressed year of 1985. Set up in 1 979 by two Sinclair alumni, Chris Curry and Hermann Hauser, the Cambridge-based firm (4a Market Hill, Cambridge CB2 3NJ. England) started out manufacturing a set of modular single-board controllers based on the MOS Technology 6502 processor. These small boards stacked together to make up complete industrial-control systems. The following year the Acorn people launched the Atom personal computer, a packaged but expandable machine that arose out of their experience with 6502 systems. For a while, at around £200, the Atom was the cheapest hobby computer available here, and it attracted a strong following, particularly among those who are as handy with the soldering iron as with the assembler. Hopped-up Atoms can still be found to this day.

Acorn's next product, initially called the Proton, was designed to meet a very advanced—for the time— specification published by the BBC (British Broadcasting Company), which was requesting bids to supply a personal computer around which an educational television series would be produced. Acorn won the contract, after a strong and often acrimonious contest in which Sinclair Research, whose 48K-byte color Spectrum was already on the market, lost out.

After a frustratingly long delay due to quality-control problems with the ULAs (uncommitted logic arrays), the BBC computer was launched and proceeded to corner the market in schools and universities. Acorn became a very wealthy company, with a turnover reputed to be £100,000,000 per annum at its high point.

The BBC Micro (alias the Beeb) is still quite a deluxe machine, with better highresolution color graphics than any of its competitors, and quite a bit faster, thanks to its 2-megahertz 6502. Another plus is the provision of a 10-MHz bus, called the Ttibe, to which second processors can be attached. Acorn charges a lot of money for this sophistication though, and the Beeb has kept its £400 price long after competitors have slashed theirs to below the £200 mark.

Acorn had from the start paid more attention to software than most manufacturers, recruiting the brightest Cambridge University computer science graduates for its software division. As a result, the Beeb acquired a range of languages unrivaled by any machine but the Apple II, including an advanced structured BASIC, LISP, Logo, FORTH, Pascal, BCPL (Basic Combined Programming Language), and more. But despite all these positive points, the Beeb has a major drawback, a shortage of memory. The ambitious specification, combined with the limited addressing capabilities of the 6502, left it with a maximum of 32K bytes of workspace (only this year upgraded to 64K bytes), and in the higher-resolution graphics modes this can be reduced to a mere 8K bytes. That doesn't get you very far in LISP or Logo.

So at the height of its prosperity Acorn set a team to design, in secret, its own processor to replace the 6502. This may seem like an ambitious, even rash, undertaking, but the people on the Acorn team were so wedded to the simplicity and speed of the 6502 architecture that they found it hard to countenance any of the commercially available 16-bit replacements. The BBC operating system is heavily interrupt-driven, and the sluggish interrupt latency of 16-bit chips, such as the Intel 8086 and Motorola 68000, would have meant introducing DMA (direct memory access) hardware and all sorts of other undesirable complications. Acorn did, in fact, adopt the National Semiconductor 32016 as a second processor for the Beeb, but only after first offering a 3-MHz 6502. And so they conceived the idea for the...

Acorn RISC Machine… A, R, M. La arquitectura del chip de tu móvil. O de tu Mac, si tienes uno. Y ahí estáis, viendo, en riguroso directo, su nacimiento. Casi nada.

Y hasta aquí la Byte del mes. Si queréis hacer los deberes para el mes que viene, como siempre, aquí tenéis los archivos de la revista Byte en archive.org.


Y esto habría sido todo… pero el otro día me enteré de la muerte de Stewart Cheifet (hasta el New York Times le dedicó un obituario). ¿Que quién es Stewart Cheifet? No me digáis que no habéis visto nunca su Computer Chronicles. Si Byte es, al menos para mí, uno de los recursos imprescindibles en formato prensa escrita para revisar la historia de la informática, Computer Chronicles es lo mismo, pero en formato vídeo. Los archivos del programa de la PBS, la tele pública de Estados Unidos (lamentablemente en peligro de muerte, gracias a la administración Trump y su alergia a la información de calidad), son un documento esencial si te interesa el periodo de 1983 a 2000. Y como homenaje, y como estas entradas sobre Byte <ironía>no son lo suficientemente largas</ironía>, he pensado que completarlas con el visionado de los programas correspondientes sería, cuando menos, un ejercicio curioso1. Y os dejo aquí los programas de enero del 86…

El 7 de enero el programa arrancaba con… ¡inteligencia artificial!

(¿No os ha encantado el anuncio del patrocinio de Byte? 😅)

No podemos dejar de comentar el copresentador del programa con Cheifet: nada más y nada menos que el malogrado Gary Kildall, creador de CP/M… y de GEM. Hay múltiples universos paralelos al nuestro en que amamos y odiamos a Kildall, CP/M y GEM y no recordamos quién era Bill Gates ni sabemos nada de un sistema operativo llamado Windows.

El Jerrold Kaplan que sale en la primera entrevista, por cierto, trabajaba por aquel entonces con Mitch Kapor, fundó en 1987 Go, dedicada a lo que luego se llamarían PDAs y luego fundaría el primer sitio web de subastas (cinco meses antes de eBay). Not bad. Y también podemos destacar la presencia del filósofo Hubert Dreyfus dudando fuertemente de la expertez de los sistemas expertos de la época :-).

Maravilloso también que los expertos apuntaban que 1986 podría ser el año del reconocimiento del habla 😅.

Después, el día 14, otro tema del que no se habla nada en la actualidad: seguridad informática.

…aunque en aquel momento esto se refería al uso de ordenadores para perseguir delitos, peleándose con catálogos de huellas digitales o usando sistemas de información geográficos, por ejemplo, pero también digitalizando procesos como en cualquier otra organización.

Os recomendaría, eso sí, saltar al minuto 27:30 del vídeo, en el que Cheifet habla de los gráficos de la peli El Secreto de la Pirámide… creados por un «nuevo ordenador gráfico, creado por Industrial Light & Magic, una división de LucasFilm. El ordenador se llama… «Pixar».

Y no sigo porque, según esta lista de episodios en la Wikipedia, el siguiente no se emitiría hasta febrero.

Apa, el mes que viene más (ya decidiremos si solo con Byte o con el añadido de Computer Chronicles).

  1. Un ejercicio curioso que, inevitablemente, no se me ha ocurrido solo a mí: veo que alguien ha montado un computerchronicles.blog y que ya lleva nada menos que los primeros 133 programas revisitados. ↩︎

2025 en música

En esta casa es tradición abrir el año bloguero repasando la música que escuchamos en los doce meses anteriores (aquí la entrada del año pasado). Y las tradiciones están para cumplirse.

No es tradicional recuperar los conciertos que vimos, pero a ver si cuaja a partir de ahora… El 17 de enero vimos a los suecos Gidge en La Nau. No nos volvimos a ir de concierto hasta el 17 de marzo, cuando cayó Music for Airports en el Auditori (a cargo del francés Ensemble Dedalus, aquí el programa de mano del concierto en PDF). El 25 vimos al estadounidense Panda Bear en la Paral·lel 62. El 28, a los londinenses Moin en el DNIT del Caixafòrum. El 29, Ben Sims pinchaba en la Laut. A partir de ahí saltamos a junio, con el atracón del Primavera Sound, cuando cayeron, que yo recuerde, Idles, Waxahatchee, Stereolab, TV on the Radio, Fontaines D.C. y Squid (cayeron más, seguro, pero es lo que hay). El 15 de julio nos fuimos a ver a Max Richter al Grec. El 1 de agosto, las argentinas Fin del Mundo en la Upload. El 30, la pinchada del angloturco Erol Alkan en el Apolo. El 15 de noviembre, las estadounidenses hermanas Lovell, a.k.a. Larkin Poe, en el Razz. El 20, la badalonesa Maria Arnal en el Palau Güell dentro del ciclo Orgànic. Y cerramos el año musical (salvo error u omisión) el 30 del mismo mes, con el luxemburgués Francesco Tristano revisitando a Bach (y amigos y conocidos), otra vez en el Caixafòrum. 9 conciertos, 2 sesiones de DJ y un festival. Podría (y debería) mejorar, pero me voy a poner un aprobado sin ningún tipo de remordimiento.

¿Que cuál os recomendaría? ¡Todos! Que no suelo ser yo de que me gusten todos los conciertos a los que voy, pero 2025 estuvo muy bien en ese aspecto :-).

(Nota: alucino con que haya gente sin web propia, que dependen de una cuenta de Bandcamp —o mucho peor: Instagram— para su presencia en la web.)

Este agosto nos fuimos de Spotify, o sea que el wrapped se quedó a medias, pero aún así, me gustó que…

Your listening age: 19

Since you listen to mostly new music. Your taste is trending.
😎

En cualquier caso, en esta casa el verdadero wrapped es el de last.fm, y el mío está, como simepre, en https://www.last.fm/user/chechar/listening-report/year. Y dice last que han sido 25,040 reproducciones (el año pasado 27,609) de 14,554 canciones diferentes (por las 16,182 de 2025) de 3,648 artistas (3,811), para un total de 69 días y 23 horas (un poco menos de una quinta parte del año, vaya). Curiosamente, casi he clavado mis números… de 2024.

Mi top 25 de artistas es…

1. Mogwai (221 scrobbles)
2. Mortimer Nyx (210)
3. Waxahatchee (199)
4. Merce Lemon (197)
5. Hania Rani (194)
6. Juana Molina (182)
7. Bully (176)
8. Vampire Weekend (175)
9. Laurie Anderson (172)
10. iLe (170)
11. Moin (168)
12. Friedberg (166)
13. Pauline en la Playa (166)
14. Larkin Poe (165)
15. Garbage (164)
16. Squirrel Flower (163)
17. Just Mustard (162)
18. King Hannah (160)
19. Travis Birds (156)
20. PP Arnold (154)
21. Sleigh Bells (154)
22. Sid Le Rock (152)
23. Gazella (151)
24. Snail Mail (146)
25. Tame Impala (145)

Voy a presumir, sobre todo, de que esos 25 artistas y bandas representan poco más de la sexta parte de la música que escuché el año pasado. La punta del iceberg, vamos. Viva la dieta variada.

Repasando los datos de last, los principales descubrimientos son las «indie roqueras» Mortimer Nyx (muy poco escuchada, al menos entre la clientela de last, por lo que veo, y Spotify tampoco dice que triunfe mucho, pero mola un montón), y Merce Lemon y el shoegaze valenciano de Gazella (los tres comenzaron a darme fuerte en 2024, por lo que veo, y a Gazella se les verá por Barcelona en febrero), la cantautora argentina Juana Molina (que lleve dando vueltas desde finales de los 80 no significa nada (veo, por cierto, que también pasa por Barcelona este año, en abril)), las también «indie roqueras» Friedberg, londinenses de origen austríaco, las poppies gijonesas Pauline en la Playa (un cuarto de siglo llevan por ahí, sí) y la autoproclamada primera dama del soul de Londres (no seré yo quien se lo discuta, ni aún sabiendo que nació en Estados Unidos) PP Arnold (80 años cumplirá en octubre). Y luego tenemos la recuperación del postrock escocés de Mogwai (llevaba un par de años sin hacerles caso, pobres, pero son una de mis bandas más escuchadas), Sleigh Bells (dice last que lo suyo es el noise pop, y que les tenía bastante abandonados desde 2022) y la psicodelia made in Australia de Tame Impala (no le escuchaba así desde 2020 (viene en abril al Sant Jordi, y no me da la economía para los precios de la reventa, que dan un vértigo considerable: ¿desde cuándo lo peta tanto?)).

¿Géneros del año? Los de costumbre, más o menos:

Las etiquetas más frecuentes, según last, son electrónica, indie, indie rock, rock, female vocalists, post punk y folk

Geográficamente, sigo siendo un surtido Cuétara, aunque la concentración anglosajona se mantiene dominante:

Mapa del mundo. Faltan por pintar buena parte de Centroamérica, África y Asia, pero aparecen todos los continentes.

No repito la gráfica de música por década, porque es la misma del año pasado: si Spotify «opina» que tengo 19 años, es porque escucho mucha más música de los 20 que de los 10, más de los 10 que de los 00, y así hasta el infinito…

En fin, una vez cumplida la tradición… ¡que tengáis un 2026 bien musical!

PS 2026.1.7 Edito para añadir la gráfica de escuchas a lo largo del día, que ayer no la había visto. Diría que no aporta nada de información, pero los homenajes a los clásicos del diseño gráfico siempre están bien :-).

La gráfica de reproducciones a lo largo del día (parece ser que cuando más música escucho es entre las doce y la una del mediodía) es un homenaje a la portada del dissco Unknown Pleasures de Joy Division, con una sucesión de líneas poligonales que dibujan algo parecido al perfil de una cadena montañosa en un videojuego vectorial de los primeros años ochenta.

Byte, diciembre del 85

Toca cerrar el año con nuestra relectura habitual de la revista Byte… de hace cuarenta años. Esta vez, temas de moda… de 2020.

Portada de la revista Byte de diciembre de 1985. El tema es "computer confeerencing", con una ilustración de un conector tipo D con un cable plano... pero en el que los pines del conector son personas sentadas a una mesa.

(Me vais a reconocer que aprovechar un conector tipo D así es, cuando menos, creativo :-).)

Y comenzamos con publicidad, más que por el producto… porque en 1985 ya hacía unos años (pocos, eso sí) que Bill Gates había dicho (o no) que 640 Ks deberían ser suficiente… y ya sabíamos que no.

Anuncio de una ampliación de memoria de dos megabytes, con el eslogan "para aquellas ocasiones en que 640 ks no parecen ser suficientes"

Por cierto. Cuarenta años más tarde, tu ordenador tiene… ¿cuatro mil veces más memoria? ¿Ocho mil?

En la sección «cosas que no son nuevas»…

And Now, Adware

In response to the letter by Mr. Tate ("Don't Sell Software. Sell Ad Space," August, page 26) regarding the selling of advertising space in entertainment software: Wow! What a great idea. Adware (that's my term for it) could resurrect the failing home computer industry

Let's face it, most home computers are used for entertainment; however, the general public is not usually willing to spend S30 to SI 00 for a game. In general I feel that this attitude applies to all types of home entertainment. Look at how successful television has become simply because you don't have to pay for it to enjoy it (unless you want cable or pay TV, but even that is relatively inexpensive). With Adware you would still have to incur the cost of downloading from the telephone. This same reason also accounts for the to-date unsuccessful home videotex systems.

Mr. Tate mentions the advantages of Adware but fails to mention the virtues of the Freeware concept and what Adware could bring to it. I personally do not agree with the idea of selling copy-protected entertainment software commercially. Computers are very good at copying software, and so this fact should be put to good use. Freeware (the free distribution of software by encouraging copying) offers the users a better and more dynamic product. For example. I have a Freeware product that I continue to update as improvements and additions are implemented. When a new release is ready I simply make it available on the Freeware market. You cannot do this economically with a similar commercial product without covering your expenses by raising the retail price. With Adware you could make it a policy to release a new version every few months to insure a dynamic advertising medium.

At present the Freeware distribution network is not firmly established, but if the amount of Freeware and the demand for it grew large enough I am sure that regular channels would establish themselves quickly so that everyone could have almost immediate access to the updates. Another benefit of this concept would be...

…y es que el debate sobre los modelos de financiación del software vendría a ser tan viejo como el propio software.

No nos vamos a saltar nunca las tecnologías para mejorar la accesibilidad de los ordenadores:

The Audiodata/IBM PC Keyboard from Frank Audiodata GmbH of West Germany uses tone and speech capabilities to make the IBM PC accessible to blind and visually impaired users. The system generates different tones depending on the type of data at the cursor's screen location. To position the cursor, you use sliding switches that correspond to the horizontal and vertical axes.

The vertical switch is on the left-hand side of the Audiodata keyboard, next to the function keys. Moving it from top to bottom yields a series of tones that tells you whether lines are blank or full of text. The horizontal switch is below the space bar. Moving it left and right yields tones that indicate letters, spaces, numbers, and punctuation marks in a line. By moving the switches and listening to the resulting tones, you can tell how many characters of what type are at what position on the screen.

The keyboard contains a Votrax SC-01 speech processor, so you can literally have the system read a portion of text out loud. Pressing a button on the vertical switch tells the system to read the line of text that corresponds to its position. Using the vertical and the horizontal switches together, you can have the system read or spell particular words.

The Audiodata keyboard works with standard or large-print monitors or with no monitor at all. It comes with a 6-inch add-in card and the system software for S3450.

Vamos a escandalizarnos, eso sí, de los 3450 dólares de la época que costaba el cacharro. Mucho más barato era este prototouchpad (que más que touchpad era un teclado para macros):

Touchpad Accessory for the IBM PC

Polytel Computer Products has introduced the Keyport 60. a small rectangular touchpad that fits along the top of the IBM PC keyboard. It has 60 touchsensitive regions that can be programmed as function keys and defined in regular and shift modes, so the Keyport 60 will accommodate a maximum of 120 macro commands.

To record a macro, you press the Alt key on your regular keyboard and a touchpad key simultaneously. Any keystrokes that follow are recorded until you press the Alt and touchpad keys a second time.

The touchpad package comes with KPEDIT. a fullscreen editor that allows you to edit key definitions.

Keyport 60 works with the IBM PC, XT, AT, and compatible personal computers, using the joystick adapter to allow concurrent operation with your regular keyboard It costs 399.

Aquí una cosa que no deja de sorprenderme que no hubiesen añadido antes en la revista. Uno se pasó una parte no negligible de los ochenta tecleando código que venía en diferentes revistas. Con mis nulos ingresos en la época, tiempo bien empleado. Pero el comprador de una revista como Byte muy probablemente tenía recursos económicos como para no verlo así:

Página anunciando un nuevo servicio de la revista: la venta de disquetes con el código incluido en la revista. Puedes optar entre disquetes de cinco y cuatro para IBM PC, Apple II en dos tipos de formato, Commodore 64, Hewlett Packard 125, Kaypro 2 CP/M. dps modelos de TRS-80, Texas Instruments Professional, Zaith Z-100 y Atari. En tres pulgadas y media, los formatos son Apple Macintosh, Atari ST, Commodore Amiga, Hewlett Packard 150 y Data General/One.

Los precios van de los cinco dólares de un disco de cinco y cuarto en Estados Unidos a los 8 para discos de tres y medio u ocho pulgadas enviados a Asia, África y Australia.

También se anuncia Bytecom, "conferencias informáticas entre los lectores de Byte en Europa, unas cuantas BBS fuera de los Estados Unidos.

Y, de regalo, nos dan el ránquin de los ordenadores más populares entre los lectores de la revista en la época. Nótese también, primero, que ahí están los discos de 8″ en formato estándar CP/M, y que los precios, teniendo en cuenta que la operación tenía que ser bastante manual, me parecen bastante razonables.

No pongo captura porque el escaneado de las páginas correspondientes en el Archive no está bien (podéis navegar a la página correspondiente de Byte – a visual archive), pero está bien la sección de libros del número. Comienza con la crítica de Back to BASIC: The History, Corruption, and Future of the Language (se puede conseguir en Amazon, curiosamente), en que los diseñadores de BASIC, al parecer, se quejan amargamente de la cosa en que se ha convertido su lenguaje, veinte años después de su creación, y explican por qué lanzaban en 1985 True BASIC (que exista el dominio y se puedan comprar en él versiones del lenguaje actuales y vintage, y manuales, me ha reventado la cabeza). Explican los autores que BASIC no fue diseñado para ser un lenguaje interpretado, sino compilado, y que esto, sumado a las estrecheces de la RAM de los ordenadores en que se estaba usando en los 80, se habían cargado su diseño. Qué cosas.

Más adelante se critica Ethical Issues in the Use of Computers. De nuevo, la digitalización del Archive está mal, pero se puede acceder al visual archive, para recordarnos que este no es un tema de nuestro siglo XXI, precisamente, y que hace cuarenta años ya nos preocupaban los riesgos de las grandes bases de datos para nuestra privacidad, la brecha digital o la toma de decisiones algorítmicas sobre nuestra salud.

Volviendo al servicio de venta de disquetes con el código de la revista, y en nuestra habitual sección «cosas que no se incluirían hoy en una revista ni por casualidad»…

A SIMPL COMPILER PART 1 : THE BASICS

by Jonathan Amsterdam

An implementation of a compiler for a simple structured language

In this article— the first of a three-part series on the construction of a compiler for a high-level language— 1 will discuss the basics of the compiler. Next month 1 will talk about procedures and functions, and in the third part of the series 1 will describe some of the compiler's extensions.

Three of my earlier Programming Projects are prerequisites for this one. "Context-Free Parsing of Arithmetic Expressions" (August, page 138) explains the parsing technique I will be using. "Building a Computer in Software" (October, page 112) describes VM2. the virtual machine for which my compiler is targeted. And "A VM2 Assembler" (November, page 112) details the assembly-language code that the compiler will generate.

The SIMPL Programming Language

I will be describing a compiler for a language of my own design, called SIMPL. SIMPL, which stands for "SIMPL Isn't Much of a Programming Language," isn't much of a programming language. SIMPLs grammar is given in figure 1. There are a few points that are not described by the grammar. An identifier is any string of letters and numbers beginning with a letter. Unlike most implementations of Pascal, SIMPL is case-sensitive, so the identifiers READ and Read mean different things. SIMPL keywords, like PROGRAM and BEGIN, are capitalized. Comments in SIMPL are delimited by braces ({ }). As in Pascal, character constants are delimited by single quotes, but SIMPL also allows the backslash character ( \ ) to act as an escape. When followed by an n or a t, the backslash denotes a new line (carriage return) or tab; when followed by any other character, it denotes that character. For example, the character constant for the single quote looks like ' \ '.

SIMPLs WHILE and IF statements, like those of Modula-2, are explicitly terminated by an END. The AND operator has the same precedence as OR, and both have weaker precedences than those of all other operators, so it is unnecessary to put parentheses around expressions connected by AND and OR. Furthermore, expressions surrounding an AND or OR will be evaluated from left to right, and no more than necessary will be evaluated. For example, in the expression TRUE AND FALSE AND TRUE, the first TRUE will be evaluated and then the FALSE will be...

Y no podemos cerrar la sección sin incluir las interfaces por voz. Si alguien es capaz de viajar al pasado, por favor, tened la delicadeza de no comentarle al autor que a la cosa aún le faltaban unas cuantas décadas.

English Recognition

The ultimate in user-friendliness

Plain English is hardly ever used to communicate with a computer. This is unfortunate because it can be very effective, and programs that recognize and use relatively complex English sentences have been written for microcomputers. English gives you a variety of ways to express complex actions with a minimum of training and program interaction. Menus, on the other hand, are often highly complex and cumbersome— both for the user and the programmer. Special languages are difficult to learn and to design and implement correctly.

Some applications seem to demand a natural-language controlling mechanism (for example, database programs and games). When you design these kinds of programs, it is hard to predict the questions or commands a user might enter. Even in the largest and most expensive custom database systems, there always seem to be questions outside the scope of the programming.

However. English has been used successfully to control database programs. The first public success was LUNAR (Lunar Sciences Natural-Language Information System), which allowed scientists to query a large file

of physical and chemical data on the lunar rock samples brought back by the Apollo 17 mission in December 1972. More recently. Larry Harris of Artificial Intelligence Corporation has been successfully selling a database retrieval system called ROBOT (now INTELLECT) that uses natural English. It runs on IBM machines and licenses for tens of thousands of dollars. R:base CLOUT by MicroRIM. another English-based database-retrieval system, runs on microcomputers, but it's not cheap either. Several game designers have recognized the benefits of using English to communicate with computers and have tried to use it as their controlling mechanism. However, the approach they take seems a bit limited. The games often have trouble recognizing what should be valid directions or questions by the players.

Nos vamos ahora al tema de portada:

AN OVERVIEW OF CONFERENCING 
SYSTEMS

by Brock N. Meeks

A guided tour through COM, EIES, PARTI, NOTEPAD, and other systems

NUOSO LIVES on the African continent. Exactly where he lives and the name of his tribe is not important; Nuoso is a nonperson. Convicted of a crime against his tribal society, he is forbidden to communicate with his family, his friends, in short, with anyone. His communication cut off, Nuoso quickly withdraws from the village. Eventually he will cease to exist even in his own mind, and he will literally die from lack of communication.

Just as people need food, water, and shelter, so they need to communicate. From the earliest days of history, our ancestors sought better ways to communicate. Primitive maps scrawled in the dust gave way to cave paintings, where information retrieval entailed nothing more complicated than remembering the right wall in the right cave. But just as society became more complex, so did the communication needs of the population.

Early telegraph links, in Napoleon's time, had signal speeds of about two characters per second. In 1913 vacuum-tube repeaters were introduced to telephony, and a rapid succession of advancements in the world of electronics followed. In 1918 the first carrier system permitted several voice channels to occupy a single pair of wires. The early 1940s saw highcapacity coaxial cables beginning to replace twisted-pair cables. Microwave links emerged in 1946 with the capacity to carry more than 10,000 telephone channels. Today's phone system uses satellite links and will soon use fiber optics. In a hundred years our communication capability has risen from fifteen to a billion bits per second, from two to over a hundred million characters per second. And all for the sake of improving communication with each other.

The Birth of Computer Conferencing

Early in 1970, political and economic pressures set the stage for the creation of a revolutionary means of communication. In the fall of 1971 the entire economic structure of the United States fell under the control of President Nixon's wage-price freeze. Because of the tremendous need to handle the reporting and information dissemination of the price freeze, the Office of Emergency Preparedness (OEP) commissioned Murray Turoff to create a computerized version of the "conference call." Turoff responded by developing the Emergency Management Information System and Reference Index (EMISARI).

The EMISARI system operated as an electronic network linking the ten OEP regional offices. The new price controls created a nationwide demand for information, guidelines, rulings, official statements, and policy clarifications from businesses, labor unions, and administrators. Because EMISARI eliminated the constraints of time and geographic location, the OEP's regional administrators were able to secure time-critical information at their convenience. The instant access of EMISARI allowed Washington to update policy as it happened and gave all involved the opportunity to respond or ask questions— with both...

Sí, era obvio, querida lectora, que no podíamos estar hablando de los Zoom de los 80, sino de los Discords asíncronos (a todo estirar, que más bien son Reddits lo que se menciona) que podían soportar los ordenadores y redes de telecomunicación de la época.

A destacar: (i) no aparece la palabra «Internet» en la pieza y, (ii) os podéis ir a la página 174 para ver una separata sobre los efectos que iban a tener estos sistemas sobre personas y sociedades. Si no me equivoco, por cierto, el firmante estaba, en aquella época, fundando el mítico The Well.

Volvemos a los anuncios. ¿Cuántos años le echábais a Logitech y sus ratones?

Anuncio del ratón Logitech LogiMouse C7

Vale, unas cuantas le echábais al menos cuarenta. Pero… ¿cuántas sabías que Logitech se dedicaba a los compiladores?

Anuncio del Modula-2/86 de Logitech

(Según la Wikipedia, Logitech se fundó en Suiza en el 81 con el objetivo de crear un procesador de texto, y de ahí se pasaron a los «roedores». En 1984 ya los tenían inalámbricos (por infrarojos). El C7 que tenéis aquí arriba era su primer ratón de venta al público. Vosotros también habríais pagado más de doscientos euros (actualizando la inflación) por tener uno, ¿verdad? Lo de Modula-2, parece ser, fue solo una veleidad temporal.)

No me iré sin darle un repasillo a los ordenadores de la época, c

Dos portátiles de la época y sus especificaciones.

Ambos pesan 4,5 libras (unos dos kilos).

El Tandy 200 tiene procesador 80C85 de 8 bits a 2,4 megahercios, mientras que el NEC PC-8401A tiene un procesador compatible Z80 a cuatro megahercios. El Tandy tiene 24 Ks de RAM, ampliables 74, el NEC viene con 64, expandibles a 96.

Tienen pantallas LCD, de 10 por 16 caracteres el Tandy, 80 por 16 el NEC.

Ambos tienen módems de 300 baudios. Se destaca que ambos tienen baterías.

El Tandy tiene un sistema operativo propio, el NEC es CP/M 2/2. Ambos vienen con suites de software que incluyen procesador de textos y hojas de cálculo.

¿Os habéis fijado que mencionan que ambos pueden funcionar alimentados por su propia batería? (Comentan del NEC, que con cuatro pilas tipo C (¿quién dijo «batería recargable»?) aguantaba un par de horas.) ¿Y que no hablan de ningún tipo de almacenamiento interno? No me molesto en calcular cuánto serían hoy los mil dólares que costaban, pero sí que comentan que el NEC, funcional, se va más bien a más de dos mil… Y también comentaré que la pieza se cierra con un «para qué un laptop» que, dada la tecnología de la época, era una pregunta más que razonable. Oh, los maravillosos ochenta.

Y cerramos con un clásico del software:

The Norton Utilities

Tools for recovering data and 
directories

Peter Nortons data-recovery tool really recovers lost data. I've used it successfully dozens of times. Will it save every lost file? No. Unfortunately, there are some kinds of damage that the Norton Utilities can't repair. Can you tell managing before buying the program whether it will help you recover a particular file? The answer to this question has to be inconclusive. There are different kinds of lost data, and sometimes, even when you know  how the damage occurred, it is difficult to predict whether it can be repaired.

The simplest kind of loss occurs when you delete a file by using the ERASE or DEL commands in DOS. Even though your directory indicates that the file no longer exists, it hasn't really been erased. What's happened is that an instruction prohibiting DOS from writing in certain areas of the disk has been altered. Your data is retained until information is actually written into these sectors. If you change your mind and decide that you need the discarded data after all, the Norton Utilities will reverse the changes made by the ERASE command and your old file will be restored.

Certain types of equipment failures can produce more serious data losses. Every DOS-formatted disk contains hidden files called the boot record and the file allocation table; these, together with the directory, are used for managing the data stored on the rest of the disk. If garbled information is entered into these files— a common cause is a disk drive out of alignment— your data may become inaccessible. But sometimes the data files themselves may survive this damage; if so, you may be able to recover some or all of them.

Retrieving Lost Data

If you plan to use the Norton file-recovery procedure, you should be careful not to write on a disk with a lost file. You'll risk having new data entered in the sectors containing the file you hope to save. Once the old information has been overwritten in this way, it can't be recovered.

If you did write on the disk, there's still a chance that the sectors holding the erased file were not the ones that received the new data; this depends on factors like how much free space was on your disk and which version of DOS you're using. So until you actually begin the recovery procedure, you won't know for sure whether the lost file was destroyed. Still, it's best not to take chances. Make it a rule to never write on a disk containing damaged files.

Another good idea is to make a copy of your damaged file whenever possible. If you're working with floppy disks, you should use the DOS DISKCOPY command (as opposed to the COPY * . * command); DISKCOPY works by reproducing what's on the source disk exactly, byte by byte, so even deleted data is copied. Carrying out the recovery procedure on a copied version of the damaged file means that if you make a mistake, you'll have a chance to recopy the original and try again.

After taking these precautions, you can begin the file-recovery procedures. In general, for simple problems like unintentionally invoking an ERASE command, you can expect the Norton Utilities to retrieve lost files consistently. When a problem is caused by a current spike, static electricity, or a disk drive out of alignment, it's harder to predict how much of a file can be recovered; this is because so many different varieties of error can occur.

With many types of errors, the Norton Utilities can often help you salvage something. At times you may be able to recover only portions of a file. This is similar to what happens when the CHKDSK procedure in DOS restores only some of the lost clusters (groups of isolated sectors) in a file. In many cases you can save enough of a file to be able to reconstruct the missing portions with little trouble. But for some files, such as those created with spreadsheet programs, even a small amount of data loss can

Las Norton Utilities del celebérrimo (y actualmente octogenario) Peter Norton llevaban el mercado desde el 82 (y quizás más sorprendente, se lanzarían versiones nuevas hasta 2012).

Como de costumbre, tenéis los archivos de la revista Byte en archive.org, y si queréis, podéis ir avanzando trabajo con el número de enero ¡del 86! Hasta el año que viene :-).