por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 28 de junio de 2000)
No hay duda de que vivimos la era de la computación. Los avances en este campo no sólo han sido más acelerados que en ninguna otra área del desarrollo humano, sino que se trata de un cambio cualitativo. Por primera vez, el hombre tiene a su disposición una herramienta que puede competir –tal vez, para evitar amarillismos, sería mejor decir que “está a la altura”– de su cerebro.
La computadora no es sólo una máquina. Con la programación adecuada, una computadora puede convertirse en cualquier máquina que necesitemos, con la única limitación de que sólo puede trabajar con información.
Dije limitación, pero debería corregir: por ser, al igual que el cerebro, una máquina que procesa información, la computadora puede en principio simular cualquier cosa (máquina, proceso, situación). Esto hace que en un sentido pueda convertirse, así sea en un sentido virtual, en cualquier cosa (una fábrica, una tormenta, un ser vivo, una sociedad, una epidemia, un motor... ¡incluso puede simularse una computadora dentro de otra!)
Teniendo en cuenta los avances que nos han llevado de ingenios como el monstruoso eniac, que llenaba un cuarto en los primeros tiempos de la computación, a las primeras computadoras personales en los ochentas, y a las maravillas modernas que tienen un poder de procesamiento equiparable con el de las supercomputadoras de hace sólo unos años, ¿qué podemos esperar en el futuro inmediato?
Normalmente, cuando se abordan estas cuestiones se habla mucho de la creciente miniaturización y el incremento paralelo en rapidez y poder de cómputo. La nanotecnología y la fabricación de circuitos formados por moléculas ofrecen la tentadora posibilidad de llevar a la computación a sus límites físicos en cuanto a pequeñez, aunque una computadora “molecular” tendría el problema de verse afectada por efectos cuánticos que normalmente son despreciables, pero que a escalas tan pequeñas pueden afectar considerablemente la operación.
Al rescate llega la llamada “computación cuántica”, que si entiendo bien promete máquinas que podrán efectuar miles de operaciones en paralelo, al distribuir el proceso en niveles simultáneos de esa realidad misteriosa en la que habitan las partículas subatómicas (procedimientos que, debo confesar, me resultan incomprensibles).
Sin embargo, más que estos avances digamos cuantitativos (más grande, más potente, más rápido), me atraen las los futuros cambios cualitativos que probablemente sufrirán –que ya están sufriendo– las computadoras tal como las conocemos.
Las primeras máquinas personales dependían de un sistema operativo y programas almacenados en discos flexibles, que eran leídos al encender el aparato y almacenados en la memoria ram. (otros programas aún más básicos están almacenados en chips o circuitos integrados que forman parte de la máquina misma, pero la capacidad de almacenamiento de éstos es limitada.)
Posteriormente se vio que era práctico que cada computadora contara con un disco duro en el que los programas necesarios estuvieran disponibles en forma directa y rápida. El crecimiento de la cantidad de información que pueden almacenarse en los discos duros ha crecido vertiginosamente, pasando de unos cuantos megabytes a gigabytes y más allá.
Los discos compactos proporcionaron durante un tiempo un medio ideal para almacenar programas y –con el advenimiento del cd en el que se puede “escribir”– datos. Pero éstos normalmente eran transferidos al disco duro. Otros medios de almacenamiento –cintas, cartuchos zip, jazz, etcétera– han cumplido funciones similares para el respaldo y transporte de información.
Al mismo tiempo, los programas comerciales –procesadores de palabras, hojas de cálculo, gestores de bases de datos– han ido creciendo y volviéndose más y más complejos. Tanto, que hoy son conocidos como paquetes o suites, y constan de una cantidad impresionante de programas principales, formados a su vez por numerosos módulos que trabajan en conjunto.
La llegada de internet ha comenzado a cambiar nuevamente el panorama. Hoy gran cantidad de programas y hasta sistemas operativos pueden obtenerse o actualizarse “bajando” componentes directamente de la red. Si uno requiere una función para la cual el programa no está preparado, éste tomará lo que necesite del sitio adecuado en internet y se irá “armando” a sí mismo, creciendo según las necesidades del usuario.
Pero no sólo eso: hoy comienza a ser habitual que uno no sólo tenga su “página” o “sitio” en la red, sino que almacene ahí sus datos e información. Incluso hay ya programas –por ejemplo, antivirus– que uno no necesita instalar en su disco duro, porque radican en el sitio del fabricante en internet. El almacenamiento en un disco duro posiblemente sea pronto sustituido en su totalidad por una simple conexión a la red (aunque en realidad, la información seguirá estando almacenada en un disco duro: el de un servidor, es decir una máquina de gran capacidad conectada a la red y a la que a su vez están conectadas nuestras computadoras). Para que esto sea posible se requerirá que dichas conexiones sean más rápidas, confiables y baratas que ahora, de modo que uno pueda estar conectado permanentemente.
Quizá pronto desaparezca la distinción entre computadora e internet: tendremos máquinas simples, sin disco duro, y todo el almacenamiento, e incluso gran parte del procesamiento de datos, se llevará a cabo en servidores de la red. Se regresará así, aunque en otro nivel, a la misma concepción con que comenzaron muchos sistemas de cómputo: una serie de terminales conectadas a un gran procesador central. Aunque esta vez será una red innumerable de computadoras conectadas a la red mundial.