21 de febrero de 2001

De vacas y noticias

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 21 de febrero de 2001)


Seguramente usted, como la mayoría de quienes leen los periódicos o prestan atención a las noticias transmitidas mediante las vibraciones del inexistente éter electromagnético (o sea, en radio y televisión), ya está harto de oír hablar de las famosas vacas locas.

Al igual que el mal de Alzheimer, el sida y el virus ébola, la encefalitis espongiforme bovina, y su variante humana, la enfermedad de Creutzfeldt-Jakob, es una de esas nuevas maldiciones que lo ponen a uno a pensar si no estaremos, como afirman los milenaristas trasnochados, “pagando el precio de tanto avance científico/tecnológico sin control”.

Y sí, a primera vista, pareciera que el argumento tiene algo de razón. Pero sólo a primera vista: desde luego, las ideas de que el sida o el ébola pudieran ser resultado de desarrollos bélicos destinados a crear armas biológicas resultan totalmente infundados, pues además de no contar todavía con los conocimientos que pudieran permitirnos crear virus tan bien adaptados (diseñados, diría el filósofo Daniel Dennett), se sabe que al menos el VIH surgió mucho antes de que existiera la tecnología de manipulación genética necesaria para “fabricarlo”. El Alzheimer, por su parte, más que una consecuencia de la vida moderna –aunque se lo ha ligado con la exposición a altos niveles de aluminio–, parece ser una de esas típicas enfermedades que no se conocían porque no se contaba con los medios para detectarla. La demencia senil, su principal manifestación, se conoce desde siempre; la formación de placas de proteína en las células cerebrales, causa molecular del mal, sólo se descubrió recientemente, y la investigación actual se centra en buscar las razones detrás de esta alteración.

Volviendo a la enfermedad de las vacas locas, una cosa es decir que la actual crisis –dudo en llamarla “epidemia– puede haber sido causada, según parece, por la ligeramente repugnante práctica de incluir harina de carne de vaca en el alimento para vacas (otra variante humana de esta enfermedad, el “kuru”, se presentaba en ciertos grupos que practicaban el canibalismo ritual devorando cerebros humanos), y otra muy distinta pensar que su existencia se debe a la intervención humana. Es un hecho que las partículas transmisoras se concentran en el tejido nervioso, pero puede que haya habido otras vías de transmisión que no involucren el canibalismo. De hecho, la variante que afecta a las ovejas, conocida como “scrapie”, es conocida desde mucho antes de que existieran los alimentos procesados para ganado. En otras palabras, no es muy válido dar por hecho que el ser humano es culpable del surgimiento de estas nuevas enfermedades; pero es muy posible que haya contribuido a su proliferación.

Sin embargo, el manejo tendencioso que pretende culpar a la ciencia y la técnica de estos males no es el único peligro con el que uno se topa cuando lee sobre el tema en los periódicos. Otro quizá más preocupante es la simple ignorancia, que se manifiesta en la publicación de información simplemente errónea. El diario El Financiero, por ejemplo, publicó hace unos días un reportaje en cuya nota introductoria anunciaba “Un virus que obliga a la revisión de los transgénicos”.

El primer error consiste en haber usado la palabra “virus”. Así como muchas veces los físicos se jalan los pelos cuando ven que un mal periodista científico o divulgador cambian “neutrón” por “protón” (“¿qué no da lo mismo?”), los biólogos desesperan cuando se confunden seres tan distintos como virus, bacterias y protozoarios.

Sólo que en el caso de las vacas locas el error es todavía peor, porque, como quizá usted ya ha oído, la enfermedad es transmitida por un extraño agente conocido como “prión” (nada que ver con partidos políticos), que tiene propiedades muy especiales que lo distinguen de los virus y de cualquier otro agente infeccioso.

De hecho, los priones fueron postulados –y descubiertos- por un investigador llamado Stanley Prusiner y su equipo, cuando trataban de encontrar la causa del scrapie (años después, en 1997, Prusiner recibió el premio Nobel de fisiología y medicina por estos descubrimientos). Lo que encontraron es que la enfermedad parecía poder ser transmitida sin la intervención de ácidos nucleicos (el ADN o su primo el ARN, portadores dela información genética en todos los seres vivos conocidos).

Luego de exhaustivos estudios, el equipo de Prusiner concluyó que la enfermedad parecía ser contagiada únicamente mediante proteínas (que llamaron priones), aunque según todos los cánones de la biología son incapaces de transmitir información genética, y en particular de reproducirse.

¿Cómo se resolvió esta contradicción? Al parecer, los priones son simplemente una forma alterna de una proteína (llamada PrP) que se produce normalmente en el tejido nervioso de los animales susceptibles. Las proteínas son largas cadenas de aminoácidos que se pliegan en formas complicadas. Normalmente, una proteína sólo puede cumplir su función si se halla plegada correctamente (o, como se dice técnicamente, si tiene su conformación nativa). La proteína priónica, sin embargo, puede existir en dos conformaciones, una de las cuales se aglomera formando estructuras que dañan el tejido cerebral, produciendo las características lesiones que dejan un aspecto esponjoso (de aquí lo de encefalopatía espongiforme, que otra vez, no tiene nada que ver con los cerebros de algunos dirigentes de partidos políticos).

Al parecer, el mecanismo que permite la transmisión de la enfermedad no es la “reproducción” de las proteínas priónicas, sino que éstas pueden provocar, como si fueran moldes a presión, que las proteínas PrP que tienen la conformación normal pasen a adoptar la conformación dañina, o priónica.

Para ser justos con el periódico, tengo que decir que en el cuerpo del reportaje se define, correctamente, que “Un prión es una variedad defectuosa de una proteína normalmente inofensiva que se encuentra en el organismo”.

El segundo error de la nota de El Financiero (de su entrada, realmente, porque el cuerpo del reportaje no tiene mayores tropiezos) es la implicación de que la enfermedad de las vacas locas puede tener que ver con la producción de organismos transgénicos. Nuevamente, se aprovecha tendenciosamente el temor a todo lo que suene a manipulación genética para apuntar que podría tener una relación con esta enfermedad de moda.

Leyendo el artículo, se descubre que lo único que tienen que ver los transgénicos en todo esto es que ante la imposibilidad de seguir usando alimento para vacas que contenga harina de carne, habría una mayor demanda de forraje que podría hacer que los países europeos –en donde es más intensa la crisis de las vacas locas– se mostraran dispuestos a usar cultivos transgénicos. O sea, como se ve, lo contrario de lo que parecía sugerir la entrada.

¿Cuál es la moraleja de todo esto? Yo diría que hay tres: que no hay que tenerle tanto miedo a la ciencia, pues es raro –aunque no imposible– que produzca monstruos; que no hay que alimentar a los animales con harina de carne, sobre todo de su misma especie, y que para hacer periodismo científico hay que tener mucho cuidado con el uso de términos y conceptos, sobre todo en titulares y entradas.

7 de febrero de 2001

¿Método científico?

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 7 de febrero de 2001)

Al profesor Rafael Xalteno López Molina, en Aguascalientes

Me escribe un lector, maestro de primaria, para comentarme que, durante un seminario de actualización magisterial sobre la enseñanza de las ciencias, expresó puntos de vista acerca del método científico que había leído en alguno de mis escritos. El resultado no fue alentador, pues las ideas que expuso fueron descalificadas por todos los asistentes, incluida la instructora. Debo aclarar que no se trataba de ataques a la ciencia o descalificaciones de su utilidad, sino, esencialmente, del argumento de que el “método científico” que se enseña en la escuela (y que consiste en una especie de receta de cocina que reza “observación, hipótesis, experimentación, comprobación, conclusión, teoría, ley...”) no existe; es un mito.

Creo que valdría la pena comentar y aclarar un poco el punto. Comenzaré por citar a Ruy Pérez Tamayo, quien en su libro Cómo acercarse a la ciencia resume la cuestión con claridad y concisión. "El método científico -dice este autor-, concebido como una receta que, aplicada a cualquier problema, garantiza su solución, realmente no existe, pero tampoco puede negarse que la mayor parte de los investigadores trabajan de acuerdo con ciertas reglas generales que a través de la experiencia han demostrado ser útiles..." Este mismo autor tiene incluso un libro completo –y muy recomendable– dedicado a explorar la cuestión, llamado precisamente ¿Existe el método científico? Historia y realidad editado por el Fondo de Cultura Económica, en la colección “La ciencia para todos”.

Y en efecto: el método científico no existe, pero sí existe. No existe la caricatura que, todavía, desgraciadamente, sigue repitiéndose en los salones de clase (aunque tengo la esperanza de que suceda cada vez en menos salones). Esta especie de letanía tiene dos grandes defectos: uno, hace parecer que la investigación científica puede hacerse mecánicamente, sin pensar, con sólo seguir los pasos, y dos, es falsa.

A diferencia de los conjuntos de instrucciones llamados algoritmos, como los que utilizan las computadoras para hacer todo lo que hacen, casi ninguna actividad humana (con excepciones como los algoritmos usados para sumar, restar, multiplicar o dividir) pueden seguirse como una receta que no requiera pensar. ¡Hasta para preparar unas galletas o unos tamales se necesita usar la inteligencia! (Y si no, compruébelo alguien que no sepa cocinar e intente preparar algún platillo siguiendo la receta al pie de letra.)

La aplicación del método científico requiere un uso constante del razonamiento crítico y la argumentación basada en las reglas de la lógica. No basta, por ejemplo, con hallar una relación estadística entre dos hechos: para aceptar que uno es causa del otro, debe encontrarse el mecanismo que explica esta relación causal.

Por otro lado, la observación supuestamente “objetiva” y libre de prejuicios e hipótesis previas que supuestamente es el inicio de toda investigación científica es imposible. El solo hecho de escoger observar ciertos hechos y no otros implica la existencia de una hipótesis previa. El filósofo Karl Popper argumentaba que, lejos de ser observadores imparciales, los científicos comenzaban teniendo hipótesis previas sobre la naturaleza, que posteriormente sometían a prueba. Sólo las hipótesis que resisten estas continuas pruebas de confrontación con la realidad logran sobrevivir. Los científicos son prejuiciosos, pero luego someten sus prejuicios a prueba y los descartan si es necesario.

La experimentación presenta problemas similares, pues todo experimento conlleva teoría, y está por tanto lejos ser objetivo e imparcial. La formulación de teorías y leyes, por otra parte, no es siempre aplicable a todas las ciencias. En biología, por ejemplo, hay pocas cosas que puedan considerarse “leyes” en el sentido en que lo son la ley de la gravedad, las de la termodinámica o las leyes de Newton en física.

Y sin embargo existe, a pesar de todo, algo que puede llamarse “método científico”: es una manera de pensar y de proceder que siguen los científicos, y que en gran medida los identifica como tales. Como comparación, veamos cómo proceden las disciplinas que no son científicas, como la astrología, el creacionismo o la “investigación” sobre ovnis tipo Jaime Maussán.

Un astrólogo sigue ciertas reglas, fijadas en épocas remotas y que tienen que ver con el movimiento de los astros en el cielo, para asignar ciertas características y “predecir” ciertos acontecimientos o tendencias en la vida de una persona. Pero aunque pueden utilizarse cálculos precisos y computadoras para calcular el signo, el ascendente y la carta astral de una persona, todo ello se hace sin tomar en cuenta ninguna evidencia, ni poner a prueba hipótesis alguna. Solo se consideran los datos iniciales (fecha de nacimiento, principalmente) y se siguen las reglas. Y claro, tampoco se somete a prueba la validez de los resultados.

El creacionismo, por su parte, aunque trata de adoptar un aspecto científico al considerar evidencia paleontológica y geológica, parte de una confianza dogmática en un texto revelado: la Biblia. La argumentación de un creacionista, en vez de apoyarse en evidencia tomada de la realidad, siempre se encuentra apoyada en argumentos bíblicos que no pueden discutirse o rebatirse, pues son aceptados como cuestión de fe.

Finalmente, la creencia en visitas extraterrestres y las extravagantes (y muchas veces míseras) evidencias que presentan quienes la defienden, aunque se ofrecen como “científicamente comprobadas”, confunden el uso de instrumentos científicos de precisión con la comprobación de la validez de una hipótesis, sin importar lo fantasiosa que ésta sea. Por otro lado, al presentárseles evidencia en contra de las visitas extraterrestres, o al comprobar que las supuestas pruebas que presentan carecen de validez, los creyentes suelen reaccionar proponiendo hipótesis ad hoc a cual más increíbles: sí hay evidencia, pero el gobierno la ha ocultado; hay un complot mundial para esconder la verdad; etc.

Si como dice Pérez Tamayo, la forma de trabajar de los científicos ha demostrado ser útil, ¿en qué consiste? Lejos de estar basada en una receta, implica la obtención de datos por medio de observaciones y experimentos, dentro del contexto de una hipótesis, más o menos detallada, que pretende explicar algún aspecto de la naturaleza. Éstas últimas son confrontadas con los datos, por medio del razonamiento y la argumentación, y de esa manera se decide si la hipótesis resiste o debe ser modificada o sustituida por otra mejor. Todo ello sin reglas inflexibles, sin un orden establecido y sin garantía de resultados.

En pocas palabras, el método científico consiste en aplicar el pensamiento racional a nuestra diaria labor de interpretar el mundo, y precisamente por eso es una de las actividades más interesantes que ha inventado la humanidad.

24 de enero de 2001

La tecnología inútil

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 24 de enero de 2001)

La primera ocasión en que fui consciente de la cantidad de esfuerzo (y dinero) que nuestra sociedad está invirtiendo en el desarrollo de modernas tecnologías que son totalmente inútiles ocurrió en los baños de un café que estaba a un lado de mi casa. Más específicamente frente a un mingitorio. El aparato estaba dotado de un aditamento que en esa época (a principios de los noventa) era todavía novedoso: se trataba de una caja de acero inoxidable con una lucecita roja que parpadeaba y lo que parecía ser la lente de una minúscula cámara de video.

Aunque su función no era muy misteriosa (evitaba que uno tuviera que “jalarle” manualmente al mingitorio luego de usarlo, mediante un rayo infrarrojo que detectaba que uno se paraba frente a él), lo realmente cómico era la ilustración de la placa que tenía pegada al frente, la cual mostraba al mingitorio computarizado siendo utilizado por... ¡un robot! (supongo que para que el usuario se diera cuenta del carácter futurista del invento, aunque más bien lo ponía a uno a pensar en la forma en como estaría construido el tal autómata).

Ahora estamos acostumbrados no sólo a mingitorios, sino a excusados, llaves de agua, secadoras de manos y hasta dispensadores de jabón líquido que detectan mediante infrarrojo la presencia del usuario. Incluso hubo excusados con un aparato que colocaba una cubierta de papel desechable nueva luego de cada uso (supongo que para no contaminarse el trasero con los bichos que contuviera el del usuario previo), aunque por su complejidad no tardaban en descomponerse, y no tuvieron éxito. Y toda esta tecnología (y el gasto consecuente) tenía el muy loable fin de evitar que tuviéramos que tomarnos la molestia de jalar un a palanca, apretar un botón o girar una llave. ¡No cabe duda de que la ciencia y la tecnología aumentan nuestra calidad de vida!

A diferencia de los inventos realimente útiles como el teléfono (que disparó la transformación del mundo y sus grandes distancias en la famosa “aldea global”), o los antibióticos (que salvan a millones y alargaron la esperanza de vida del ser humano), la tecnología inútil sirve sólo para gastar dinero a lo tonto. Los ejemplos son prácticamente infinitos (uso la palabra “prácticamente” para evitar que un matemático demasiado celoso de la precisión me escriba para regañarme por usar erróneamente el lenguaje técnico, pues no es posible que sean realmente infinitos). Van desde los limpiadores de ciertos autos de lujo, capaces de ajustar en forma “inteligente” su velocidad de acuerdo con la cantidad de lluvia que esté cayendo, hasta las cremas para el cutis que contienen ARN de colágeno, las cuales desde luego son completamente inservibles pero son caras y suenan muy bien. (Expliquemos que el colágeno es una proteína que confiere resistencia y elasticidad a la piel, y se produce dentro de las células a partir de la información contenida en el ADN, mediante la transmisión de esa información a una molécula llamada ARN mensajero. Sólo que las capas externas de la piel están formadas por células muertas, por lo que por más ARN que contenga una crema, es muy difícil que favorezca la síntesis de más colágeno.)

Seguramente el lector(a) conoce muchos ejemplos más de objetos que básicamente no sirven para nada nuevo, pero que cuestan muy caros y que debe haber costado mucho trabajo inventar y producir. Plumas con reloj digital integrado (hace años, las de hoy tienen un rayo láser o flotan en su base por medio de imanes); desarmadores especiales para hacer girar tornillos de hornos de microondas; aparatos de sonido que, mediante una docena de bocinas de distintas formas y tamaños, permiten reproducir la acústica de su sala de conciertos favorita; relojes de pulsera que por un lado tienen manecillas y por el otro una pantalla digital de cristal líquido; impresoras que combinan con el color de su computadora y por tanto cuestan un 25% más que las de color beige; una batería de cocina con chapa de tungsteno (o de wolframio) que supuestamente difunde más rápidamente el calor; juguetes computarizados tipo Tamagotchi o Furby, que finalmente se descomponen o cuando más sirven para lo mismo que una muñeca tradicional (hoy incluso hay en el mercado “perritos” electrónicos que cuestan una millonada)... No hay límite a la creatividad de los inventores y diseñadores de este tipo de “Novedades”, como puede apreciarse en cualquier catálogo de esas tiendas de regalos caros o en la publicidad que se envía con los estados de cuenta de las tarjetas de crédito.

Uno podría sorprenderse de que en un mundo en el que la miseria y el hambre afectan a un porcentaje preocupante de la población, se dedique tanto tiempo y recursos a inventar este tipo de aparatos, y más todavía de que el público esté dispuesto a pagar por ellos (y normalmente precios altos). La explicación, supongo, es que la mayor parte de esta chatarra proviene de los Estados Unidos, país en el que la cantidad de dinero que se produce supera las necesidades de la población. Una versión popular del “sueño americano” es que uno puede hacerse rico inventando algún aparato que sirva para algo que a nadie se le haya ocurrido antes (un sacacorchos láser, digamos, o un juego de cinco tijeras de uñas diferentes, una para cada dedo de los pies) y vendiéndolo. La pregunta, entonces (y se la dejo a economistas y sociólogos, porque para mí es un misterio) es por qué el público mexicano, cuya realidad económica está muy por debajo de la del estadounidense medio, cae en las mismas trampas. Un buen tema de reflexión para la cuesta de enero.

Y a propósito, los controles automáticos para mingitorios que mencionaba al principio, con su aspecto de camaritas de video, fue hace años motivo de una broma del doctor Marcelino Cereijido, del cinvestav, quien publicó en la revista Avance y perspectiva un artículo que causó furor. Pero esa es otra historia...

20 de septiembre de 2000

Guerras científicas

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 20 de septiembre de 2000)

El pasado 12 de septiembre tuve el gusto de asistir a una interesante discusión en la que se abordó el polémico tema de las llamadas “guerras científicas” (science wars). El evento fue organizado por la revista Fractal y la Casa Refugio Citlaltépetl y se llevó a cabo en ese lugar, dedicado precisamente a ofrecer asilo a escritores extranjeros que son amenazados en sus países. Participaron Shahen Hacyan, investigador del Instituto de Física de la unam, columnista del periódico Reforma y uno de los investigadores que han realizado una labor más sólida de divulgación de la física en nuestro país, y Carlos López Beltrán, quien es biólogo, historiador y filósofo de la ciencia, investigador en el Instituto de Investigaciones Filosóficas de nuestra universidad y además de poeta y divulgador de la ciencia.
La discusión, que permitió la participación de los asistentes, me pareció especialmente interesante porque aborda un tema del que casi no se ha hablado en nuestro país: el del creciente desencuentro entre quienes se dedican a cultivar las ciencias naturales y los que se dedican a la filosofía y los estudios sobre la ciencia, que normalmente –aunque no siempre- provienen del área de las humanidades.
El tema no es nuevo: el título mismo de este espacio en nuestro decano periódico humanidades, “Las dos culturas”, hace referencia a un famoso ensayo del científico y escritor C. P. Snow publicado en 1959, en el que se quejaba de la brecha de incomprensión, ignorancia y desprecio que se iba acrecentando cada vez más entre científicos y humanistas, dividiendo de este modo la cultura en dos compartimientos estancos.
Las “guerras científicas” pueden verse como una continuación de este problema. López Beltrán señaló tres incidentes recientes. El primero es la publicación, en 1987, de un artículo llamado “Donde la ciencia se ha equivocado”, firmado por T. Teocharis y M. Psimopoulos, en la afamada revista científica inglesa Nature, en el que se denunciaban los “ataques” de filósofos y sociólogos a la ciencia y se convocaba a defender los conceptos de verdad y objetividad científica. El segundo es la publicación de una biografía de Louis Pasteur escrita por Bruno Latour, en la que se desmitificaba la figura de este héroe científico y se afirmaba que había alterado los resultados de algunos de sus experimentos más famosos para obtener resultados acordes con sus expectativas.
Finalmente, el tercero es el famoso “affaire Sokal", ya comentado en este espacio. El físico estadounidense Alan Sokal, molesto por el mal uso de conceptos científicos, en particular provenientes de la física, en los escritos de filósofos “posmodernistas” como Jaques Lacan, Julia Kristeva, el propio Latour, Jean Baudrillard y otros –predominantemente franceses-, y en general con lo que él percibe con una tendencia a desprestigiar a la ciencia por parte del área de “estudios sobre la ciencia” (science studies, que comprenden disciplinas como la filosofía, historia y sociología de la ciencia), decidió contraatacar: escribió un artículo plagado de confusiones y tonterías, pero lleno de citas de estos autores (al que tituló “Transgredir las fronteras: hacia una hermenéutica transformativa de la gravedad cuántica”), y lo mandó a una importante revista de sociología llamada Social Text.
Cuando el artículo fue aceptado y publicado, en 1996, Sokal proclamó a los cuatro vientos que había demostrado la falta de rigor no sólo del comité editorial de la revista, sino de la totalidad del área de estudios sociales sobre la ciencia, comprobando –según él- que no tenían la menor idea de lo que hablaban. Poco tiempo después, junto con J. Bricmont, Sokal publicó el libro Imposturas intelectuales (Paidós, 1999) en el que criticaba más ampliamente el mal uso de conceptos científicos por estos autores.
Como podrá imaginar el lector, cada uno de estos incidentes provocó un amplio debate en los medios, en los que salieron a relucir los crecientes desacuerdos entre defensores de uno y otro bando. En particular la “broma” de Sokal –aunque yo prefiero llamarla “trampa”, y un asistente al debate de Citlaltépetl la describió, muy acertadamente, como abuso de confianza”- contribuyó a polarizar las posiciones. Sokal recibió apoyo de personajes como Stephen Weinberg, premio Nobel de física por su trabajo sobre partículas elementales y uno de los representantes de la ultraderecha científica (que defiende por ejemplo la superioridad indiscutible de la ciencia sobre otras formas de conocimiento y el carácter objetivo del conocimiento científico, conceptos ambos muy cuestionables desde el punto de vista filosófico).
En nuestro país, un artículo de Weinberg en el que apoyaba a Sokal fue publicado con el título “La tomadura de pelo de Alan Sokal” en la revista Vuelta en septiembre de 1996. Uno de los temas que se mencionaron en el evento de Citlaltépetl fue los motivos que podrían haber hecho que el grupo de Octavio Paz, director de la revista, se interesara en el tema y decidiera tomar partido al publicar sólo uno de los puntos de vista. Otra reflexión que me viene a la mente es lo significativo de que el tema sólo pudiera ser tratado en Vuelta, lo cual muestra la carencia de foros donde se pueda discutir la cultura científica en nuestro país.
A pesar de que en el evento de Citlaltépetl se ventilaron temas de gran interés, no hay espacio para mencionarlos todos: el propósito de esta breve reseña es sólo expresar el gusto que me dio la organización de un evento donde se pudieran discutir estos asuntos, pues es algo que hace falta en nuestro árido medio cultural, en el que la ciencia queda excluida como regla general.
Por otro lado, el miedo que, en mi opinión, está en la base de las “guerras científicas” (miedo de los científicos a una subjetivización y relativización de su disciplina por parte de filósofos y sociólogos, que perciben amenazadora, y miedo de éstos al excesivo cientificismo que manifestado por radicales como Weinberg), sólo puede combatirse con conocimiento y discusión. Creo que los científicos no tienen por qué temer a los análisis a que es sometida su disciplina, sino estar abiertos a enriquecerse con ellos, pues creo que nadie tiene como objetivo “destruir” a la ciencia. Parafraseando a Daniel Dennett: ¿quién teme al relativismo? Sólo los dogmáticos. Voto porque discusiones y mesas redondas sobre la relación entre ciencias y humanidades sean cada vez más comunes en nuestro país.

6 de septiembre de 2000

El genoma humano: ni completo ni amenazador

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 6 de septiembre de 2000)

Con una cariñosa felicitación a todo el equipo de Humanidades por sus 10 años de labor fructífera

Nuevamente el genoma. Esta vez para anunciar el final de lo que posiblemente sea, como se ha comentado ampliamente, uno de los proyectos más importantes y ambiciosos de la humanidad.

¿En qué consiste el publicitado logro? Básicamente en el desciframiento, o lectura (técnicamente llamado “secuenciación”), de la información genética completa de la especie humana, contenida en los 23 cromosomas que se encuentran en los núcleos de cada una de nuestras células. Dicho de otro modo, la determinación del orden en que están unidos los aproximadamente tres mil millones de nucleótidos, cada uno portador de una base (adenina, guanina, citosina o timina) que forman el genoma humano, formando 23 grandes moléculas de adn.

La hazaña fue lograda simultáneamente por dos grupos. Uno es un consorcio internacional, en el que participaban instituciones de investigación de varios países, el cual desarrollaba el Proyecto Genoma Humano, esa última gran empresa del siglo xx iniciada hace diez años. El otro es una empresa privada, Celera Genomics Corp., la cual, a base de dinero, computadoras y una estrategia menos precisa pero mucho más rápida que la usada por el Proyecto Genoma (un enfoque típicamente neoliberal, pues), estuvo a punto de ganar esta carrera de fin de siglo.

Al final, ambas empresas decidieron, gracias a la mediación diplomática de la administración de Bill Clinton, presentar públicamente sus resultados en una especie de empate técnico justo antes de llegar a la meta. Lo cual no significa que los dos científicos que dirigieron el Proyecto Genoma, Francis Collins y su antecesor James Watson (famoso por haber descubierto, junto con Francis Crick, la estructura en doble hélice del adn en 1953) hayan dejado de sentir una notoria animadversión hacia J. Craig Venter, presidente de Celera y uno de los científicos más presumidos y provocadores de los últimos tiempos.

Sin embargo, el estruendoso anuncio merece que hagamos algunas precisiones. Hay tres razones por las que el decir que se ha terminado de secuenciar el genoma humano es una imprecisión.

Primero: en realidad no se trata del desciframiento de toda la información genética de la especie humana: sólo de la de uno o unos cuantos individuos (el proyecto genoma analizó, según entiendo, adn procedente de una persona cuya identidad no es conocida, mientras que Celera analizó el de cinco individuos, en diversas proporciones). Pero debido a que –a pesar del hecho comúnmente aceptado de que no hay dos individuos genéticamente iguales (excepto los gemelos homocigóticos)– la variabilidad genética entre individuos es mínima (la más considerable diferencia entre el chimpancé Pan troglodytes y Homo sapiens es tan sólo de alrededor del uno por ciento), el determinar la secuencia del genoma de un individuo justifica la afirmación de que se conoce el genoma humano. Sin embargo, es precisamente en estas mínimas diferencias en las que radica el hecho de que algunas personas tengan enfermedades o características genéticas particulares y otras no. A partir de la información del genoma “base” que se ha determinado, habrá que determinar –de hecho, ya se está haciendo– las diversas variantes (alelos) de los genes involucrados en estas enfermedades y particularidades.

Una segunda precisión es que, aún considerándolo como un “genoma base”, no se puede decir que lo que se ha secuenciado sea el genoma humano completo, porque hay una parte mínima pero indispensable de la información genética de nuestra especie que no se encuentra en los cromosomas del núcleo, sino dentro de las mitocondrias, esas pequeñas “centrales energéticas” de nuestras células, como señaló recientemente Ruy Pérez Tamayo en un artículo publicado en Excélsior.

Finalmente, tampoco puede decirse que se ha terminado de descifrar el genoma porque Celera cuenta actualmente con el 99 por ciento de la información, mientras que el Proyecto Genoma con sólo el 97. Las partes que quedan por secuenciar son, como puede adivinarse, las más difíciles: aquellas cuya “lectura” resulta, por alguna razón, especialmente ardua.

Hechos estos comentarios, ¿qué podemos esperar de este logro histórico? No mucho por el momento, pero pronto seguramente serán identificados numerosos genes responsables de, o relacionados con, enfermedades genéticas, lo cual es un primer paso para comprender el mecanismo de las mismas y las posibles rutas para su prevención o tratamiento.

Por otro lado, las predicciones catastrofistas de los agoreros que están siempre prestos a ver en la ciencia la causa de las peores desgracias no tienen mucho fundamento. Desde luego, está descartada la creación de seres humanos diseñados para ser esclavos y otras fantasías de ciencia ficción, tanto por la actual imposibilidad técnica como por la actitud responsables que científicos y sociedades están tomando ante las nuevas tecnologías.

Un peligro más tangible es la posibilidad de discriminación genética basada en nuevas y poderosas técnicas de análisis genético, que permitan predecir la susceptibilidad de un individuo a numerosas enfermeadesa y que podrían dificultar su acceso a seguros de salud o a empleos: un escenario similar al de la película Gattacca. Sin embargo, es de esperar que conforme estas posibilidades se van convirtiendo en realidad, las sociedades vayan adaptándose y desarrollando maneras de lidiar con los posibles conflictos de un modo que no genere mayor inestabilidad.

¿Qué podemos esperar entonces para el futuro? En primer lugar, habrá que completar la secuenciación y comenzar a detectar los genes más importantes relacionados con enfermedades. También queda pendiente la tarea de determinar función del resto de genes, así como de sus secuencias reguladoras.

Con el tiempo, podemos esperar que esto lleve –quizá más rápidamente de lo que pensamos– a desarrollar nuevas y más efectivas terapias génicas, sustitución o eliminación de genes nocivos, primero de individuos y luego de pool genético de la especie

De lo que no hay duda es que, ante el nuevo futuro potencial de modificación genética, tendremos que aprender a ser responsables... pero para ello primero tendremos que estar bien informados.

28 de junio de 2000

El futuro de la computación

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 28 de junio de 2000)

No hay duda de que vivimos la era de la computación. Los avances en este campo no sólo han sido más acelerados que en ninguna otra área del desarrollo humano, sino que se trata de un cambio cualitativo. Por primera vez, el hombre tiene a su disposición una herramienta que puede competir –tal vez, para evitar amarillismos, sería mejor decir que “está a la altura”– de su cerebro.

La computadora no es sólo una máquina. Con la programación adecuada, una computadora puede convertirse en cualquier máquina que necesitemos, con la única limitación de que sólo puede trabajar con información.

Dije limitación, pero debería corregir: por ser, al igual que el cerebro, una máquina que procesa información, la computadora puede en principio simular cualquier cosa (máquina, proceso, situación). Esto hace que en un sentido pueda convertirse, así sea en un sentido virtual, en cualquier cosa (una fábrica, una tormenta, un ser vivo, una sociedad, una epidemia, un motor... ¡incluso puede simularse una computadora dentro de otra!)

Teniendo en cuenta los avances que nos han llevado de ingenios como el monstruoso eniac, que llenaba un cuarto en los primeros tiempos de la computación, a las primeras computadoras personales en los ochentas, y a las maravillas modernas que tienen un poder de procesamiento equiparable con el de las supercomputadoras de hace sólo unos años, ¿qué podemos esperar en el futuro inmediato?

Normalmente, cuando se abordan estas cuestiones se habla mucho de la creciente miniaturización y el incremento paralelo en rapidez y poder de cómputo. La nanotecnología y la fabricación de circuitos formados por moléculas ofrecen la tentadora posibilidad de llevar a la computación a sus límites físicos en cuanto a pequeñez, aunque una computadora “molecular” tendría el problema de verse afectada por efectos cuánticos que normalmente son despreciables, pero que a escalas tan pequeñas pueden afectar considerablemente la operación.

Al rescate llega la llamada “computación cuántica”, que si entiendo bien promete máquinas que podrán efectuar miles de operaciones en paralelo, al distribuir el proceso en niveles simultáneos de esa realidad misteriosa en la que habitan las partículas subatómicas (procedimientos que, debo confesar, me resultan incomprensibles).

Sin embargo, más que estos avances digamos cuantitativos (más grande, más potente, más rápido), me atraen las los futuros cambios cualitativos que probablemente sufrirán –que ya están sufriendo– las computadoras tal como las conocemos.

Las primeras máquinas personales dependían de un sistema operativo y programas almacenados en discos flexibles, que eran leídos al encender el aparato y almacenados en la memoria ram. (otros programas aún más básicos están almacenados en chips o circuitos integrados que forman parte de la máquina misma, pero la capacidad de almacenamiento de éstos es limitada.)

Posteriormente se vio que era práctico que cada computadora contara con un disco duro en el que los programas necesarios estuvieran disponibles en forma directa y rápida. El crecimiento de la cantidad de información que pueden almacenarse en los discos duros ha crecido vertiginosamente, pasando de unos cuantos megabytes a gigabytes y más allá.

Los discos compactos proporcionaron durante un tiempo un medio ideal para almacenar programas y –con el advenimiento del cd en el que se puede “escribir”– datos. Pero éstos normalmente eran transferidos al disco duro. Otros medios de almacenamiento –cintas, cartuchos zip, jazz, etcétera– han cumplido funciones similares para el respaldo y transporte de información.

Al mismo tiempo, los programas comerciales –procesadores de palabras, hojas de cálculo, gestores de bases de datos– han ido creciendo y volviéndose más y más complejos. Tanto, que hoy son conocidos como paquetes o suites, y constan de una cantidad impresionante de programas principales, formados a su vez por numerosos módulos que trabajan en conjunto.

La llegada de internet ha comenzado a cambiar nuevamente el panorama. Hoy gran cantidad de programas y hasta sistemas operativos pueden obtenerse o actualizarse “bajando” componentes directamente de la red. Si uno requiere una función para la cual el programa no está preparado, éste tomará lo que necesite del sitio adecuado en internet y se irá “armando” a sí mismo, creciendo según las necesidades del usuario.

Pero no sólo eso: hoy comienza a ser habitual que uno no sólo tenga su “página” o “sitio” en la red, sino que almacene ahí sus datos e información. Incluso hay ya programas –por ejemplo, antivirus– que uno no necesita instalar en su disco duro, porque radican en el sitio del fabricante en internet. El almacenamiento en un disco duro posiblemente sea pronto sustituido en su totalidad por una simple conexión a la red (aunque en realidad, la información seguirá estando almacenada en un disco duro: el de un servidor, es decir una máquina de gran capacidad conectada a la red y a la que a su vez están conectadas nuestras computadoras). Para que esto sea posible se requerirá que dichas conexiones sean más rápidas, confiables y baratas que ahora, de modo que uno pueda estar conectado permanentemente.

Quizá pronto desaparezca la distinción entre computadora e internet: tendremos máquinas simples, sin disco duro, y todo el almacenamiento, e incluso gran parte del procesamiento de datos, se llevará a cabo en servidores de la red. Se regresará así, aunque en otro nivel, a la misma concepción con que comenzaron muchos sistemas de cómputo: una serie de terminales conectadas a un gran procesador central. Aunque esta vez será una red innumerable de computadoras conectadas a la red mundial.

14 de junio de 2000

Difusión cultural de la ciencia

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 14 de junio de 2000)

¿Se puede hacer divulgación científica si uno no soporta a los niños, no le interesan las noticias científicas y no pretende enseñar nada?

Es frecuente que los solteros de más de treinta que no tenemos hijos enfrentemos un problema: qué hacer cuando la conversación, en un grupo de amigos, deriva –caso frecuente y casi inevitable– al tema de la crianza, virtudes y cuidado de los respectivos vástagos.

Enfrentado con esta situación, se me ocurren varias posibilidades. 1) Levantarse violentamente de la mesa y abandonar la habitación dando un portazo, opción claramente poco viable (a menos que quiera un quedar excluido del grupo de amigos). 2) Vetar el tema, otra alternativa poco prometedora e injustamente impositiva. 3) Resignarse a estar callado y escuchar a los presentes disertar interminablemente sobre un tema en el que uno no tiene el menor interés hasta que se les acabe la cuerda. Recurso que, desde luego, tampoco me parece aceptable.

No tengo la solución a este dilema (me enfrento a otro equivalente cuando la conversación, normalmente en un grupo de puros hombres, gira hacia otro de mis temas aborrecidos: el futbol). Pero la situación es semejante a la que enfrentamos los divulgadores de la ciencia que no queremos hacerle la competencia los maestros de escuela, ni nos interesa entretener infantes, ni nacimos con vocación de periodistas.

El primer caso se encarna en la llamada “enseñanza no formal” de la ciencia, que hasta donde alcanzo a entender es una especie de escuela fuera de la escuela, donde se pretende que los alumnos aprendan los conceptos científicos que sus maestros –o las lagunas en los programas de estudio, o la falta de tiempo– no les permitieron asimilar.

El problema es que precisamente una de las características esenciales de la divulgación científica, incluso una de sus mayores virtudes, es ser una actividad que busca acercar al público a la ciencia como algo que se hace por gusto, no como obligación. Y es sabido que para aprender algo, máxime si se trata de conceptos relativamente complejos o abstractos como los que pueden hallarse en la ciencia, es necesario hacer un cierto esfuerzo intelectual y de atención. En una escuela se cuentan con las condiciones para exigir a los alumnos esta dedicación, pero difícilmente puede lograrse esto cuando, por ejemplo, se visita un museo, se lee una revista o se observa un programa de televisión. Todo esto me hace pensar que probablemente la pretensión de “enseñar” ciencia sea una meta fútil para el divulgador científico.

La ciencia como mero entretenimiento infantil es otro objetivo que no resulta excesivamente prometedor para el divulgador de la ciencia. La diferencia entre una auténtica labor de divulgación –que implica necesariamente poner la ciencia al alcance de un público que no está en contacto directo con ella ni con sus lenguajes especializados– y un enfoque meramente recreativo es más o menos la que puede hallarse entre un centro de ciencia como el Exploratorium de San Francisco –o, en nuestras latitudes, un museo como Universum, por ejemplo– y un parque temático de diversiones como Epcot Center. Quizá el entretenimiento habría que dejárselo a los profesionales; por otro lado, no puedo evitar sentir que presentar la ciencia como mero entretenimiento es devaluarla un poco (opinión que, desde luego, es estrictamente personal).

El periodismo científico, por su lado, es una labor que admite muchas variantes, pero que esencialmente se caracteriza por enfocarse en lo novedoso. Se podría decir que para que algo sea periodismo tiene que se noticia: novedad. Otras características frecuentes en el trabajo periodístico son la premura con la que tiene que trabajarse y la necesidad imperiosa de contar con fuentes autorizadas y confiables, cuya información debe regularmente confirmarse, normalmente recurriendo a otras fuentes. Muchos divulgadores de la ciencia, sin embargo, nos interesamos por tratar temas que no son ni novedosos ni necesariamente importantes, aunque sí muy interesantes. El público, por su parte, necesita, para desarrollar una cultura científica, contar con antecedentes y un panorama que le permita desarrollar una perspectiva en la que las últimas noticias científicas puedan ser interpretadas y cobrar sentido, labor que no siempre logran hacer los periodistas científicos, ya sea por falta de espacio, de tiempo o hasta de interés.

Bien; y entonces, ¿a qué quiere dedicarse este hipotético divulgador científico al que describo triplemente amenazado por Escila, Caribdis y su hermana desconocida?

Simplemente a difundir, divulgar, compartir algo que a él mismo (o ella) le causa placer, le interesa y le permite llevar una vida más rica y útil: la ciencia. entendida no sólo como conocimiento, sino también como método y como forma de enfrentar la realidad.

Esta visión de la ciencia es muy similar a la que adoptan los artistas y quienes se dedican a labores de difusión cultural cuando organizan conciertos, sesiones de lectura de poesía, espectáculos de danza, recorridos arquitectónicos o exposiciones de cuadros o esculturas. No se trata de enseñar, ni de dar noticias, ni tampoco simplemente de entretener o divertir (para ello está la feria, la tv o el cine). Se trata de poner al alcance del público una parte de la cultura con la que normalmente no tiene contacto por iniciativa propia, pero que creemos que vale la pena compartir.

Así como vale la pena, a pesar del poco público que pueda apreciarlo, apoyar a un grupo que interpreta música antigua con instrumentos originales de la época, es válido defender una visión cultural de la divulgación científica que no la conciba como algo obligatorio, necesario y ni siquiera útil, sino simplemente como algo interesante, hermoso y enriquecedor. Como el arte, la ciencia no tendría por qué justificar su valor. Finalmente, junto con el arte, la ciencia es uno de los logros más elevados de la especie humana, ¿no es así?