20 de septiembre de 2000

Guerras científicas

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 20 de septiembre de 2000)

El pasado 12 de septiembre tuve el gusto de asistir a una interesante discusión en la que se abordó el polémico tema de las llamadas “guerras científicas” (science wars). El evento fue organizado por la revista Fractal y la Casa Refugio Citlaltépetl y se llevó a cabo en ese lugar, dedicado precisamente a ofrecer asilo a escritores extranjeros que son amenazados en sus países. Participaron Shahen Hacyan, investigador del Instituto de Física de la unam, columnista del periódico Reforma y uno de los investigadores que han realizado una labor más sólida de divulgación de la física en nuestro país, y Carlos López Beltrán, quien es biólogo, historiador y filósofo de la ciencia, investigador en el Instituto de Investigaciones Filosóficas de nuestra universidad y además de poeta y divulgador de la ciencia.
La discusión, que permitió la participación de los asistentes, me pareció especialmente interesante porque aborda un tema del que casi no se ha hablado en nuestro país: el del creciente desencuentro entre quienes se dedican a cultivar las ciencias naturales y los que se dedican a la filosofía y los estudios sobre la ciencia, que normalmente –aunque no siempre- provienen del área de las humanidades.
El tema no es nuevo: el título mismo de este espacio en nuestro decano periódico humanidades, “Las dos culturas”, hace referencia a un famoso ensayo del científico y escritor C. P. Snow publicado en 1959, en el que se quejaba de la brecha de incomprensión, ignorancia y desprecio que se iba acrecentando cada vez más entre científicos y humanistas, dividiendo de este modo la cultura en dos compartimientos estancos.
Las “guerras científicas” pueden verse como una continuación de este problema. López Beltrán señaló tres incidentes recientes. El primero es la publicación, en 1987, de un artículo llamado “Donde la ciencia se ha equivocado”, firmado por T. Teocharis y M. Psimopoulos, en la afamada revista científica inglesa Nature, en el que se denunciaban los “ataques” de filósofos y sociólogos a la ciencia y se convocaba a defender los conceptos de verdad y objetividad científica. El segundo es la publicación de una biografía de Louis Pasteur escrita por Bruno Latour, en la que se desmitificaba la figura de este héroe científico y se afirmaba que había alterado los resultados de algunos de sus experimentos más famosos para obtener resultados acordes con sus expectativas.
Finalmente, el tercero es el famoso “affaire Sokal", ya comentado en este espacio. El físico estadounidense Alan Sokal, molesto por el mal uso de conceptos científicos, en particular provenientes de la física, en los escritos de filósofos “posmodernistas” como Jaques Lacan, Julia Kristeva, el propio Latour, Jean Baudrillard y otros –predominantemente franceses-, y en general con lo que él percibe con una tendencia a desprestigiar a la ciencia por parte del área de “estudios sobre la ciencia” (science studies, que comprenden disciplinas como la filosofía, historia y sociología de la ciencia), decidió contraatacar: escribió un artículo plagado de confusiones y tonterías, pero lleno de citas de estos autores (al que tituló “Transgredir las fronteras: hacia una hermenéutica transformativa de la gravedad cuántica”), y lo mandó a una importante revista de sociología llamada Social Text.
Cuando el artículo fue aceptado y publicado, en 1996, Sokal proclamó a los cuatro vientos que había demostrado la falta de rigor no sólo del comité editorial de la revista, sino de la totalidad del área de estudios sociales sobre la ciencia, comprobando –según él- que no tenían la menor idea de lo que hablaban. Poco tiempo después, junto con J. Bricmont, Sokal publicó el libro Imposturas intelectuales (Paidós, 1999) en el que criticaba más ampliamente el mal uso de conceptos científicos por estos autores.
Como podrá imaginar el lector, cada uno de estos incidentes provocó un amplio debate en los medios, en los que salieron a relucir los crecientes desacuerdos entre defensores de uno y otro bando. En particular la “broma” de Sokal –aunque yo prefiero llamarla “trampa”, y un asistente al debate de Citlaltépetl la describió, muy acertadamente, como abuso de confianza”- contribuyó a polarizar las posiciones. Sokal recibió apoyo de personajes como Stephen Weinberg, premio Nobel de física por su trabajo sobre partículas elementales y uno de los representantes de la ultraderecha científica (que defiende por ejemplo la superioridad indiscutible de la ciencia sobre otras formas de conocimiento y el carácter objetivo del conocimiento científico, conceptos ambos muy cuestionables desde el punto de vista filosófico).
En nuestro país, un artículo de Weinberg en el que apoyaba a Sokal fue publicado con el título “La tomadura de pelo de Alan Sokal” en la revista Vuelta en septiembre de 1996. Uno de los temas que se mencionaron en el evento de Citlaltépetl fue los motivos que podrían haber hecho que el grupo de Octavio Paz, director de la revista, se interesara en el tema y decidiera tomar partido al publicar sólo uno de los puntos de vista. Otra reflexión que me viene a la mente es lo significativo de que el tema sólo pudiera ser tratado en Vuelta, lo cual muestra la carencia de foros donde se pueda discutir la cultura científica en nuestro país.
A pesar de que en el evento de Citlaltépetl se ventilaron temas de gran interés, no hay espacio para mencionarlos todos: el propósito de esta breve reseña es sólo expresar el gusto que me dio la organización de un evento donde se pudieran discutir estos asuntos, pues es algo que hace falta en nuestro árido medio cultural, en el que la ciencia queda excluida como regla general.
Por otro lado, el miedo que, en mi opinión, está en la base de las “guerras científicas” (miedo de los científicos a una subjetivización y relativización de su disciplina por parte de filósofos y sociólogos, que perciben amenazadora, y miedo de éstos al excesivo cientificismo que manifestado por radicales como Weinberg), sólo puede combatirse con conocimiento y discusión. Creo que los científicos no tienen por qué temer a los análisis a que es sometida su disciplina, sino estar abiertos a enriquecerse con ellos, pues creo que nadie tiene como objetivo “destruir” a la ciencia. Parafraseando a Daniel Dennett: ¿quién teme al relativismo? Sólo los dogmáticos. Voto porque discusiones y mesas redondas sobre la relación entre ciencias y humanidades sean cada vez más comunes en nuestro país.

6 de septiembre de 2000

El genoma humano: ni completo ni amenazador

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 6 de septiembre de 2000)

Con una cariñosa felicitación a todo el equipo de Humanidades por sus 10 años de labor fructífera

Nuevamente el genoma. Esta vez para anunciar el final de lo que posiblemente sea, como se ha comentado ampliamente, uno de los proyectos más importantes y ambiciosos de la humanidad.

¿En qué consiste el publicitado logro? Básicamente en el desciframiento, o lectura (técnicamente llamado “secuenciación”), de la información genética completa de la especie humana, contenida en los 23 cromosomas que se encuentran en los núcleos de cada una de nuestras células. Dicho de otro modo, la determinación del orden en que están unidos los aproximadamente tres mil millones de nucleótidos, cada uno portador de una base (adenina, guanina, citosina o timina) que forman el genoma humano, formando 23 grandes moléculas de adn.

La hazaña fue lograda simultáneamente por dos grupos. Uno es un consorcio internacional, en el que participaban instituciones de investigación de varios países, el cual desarrollaba el Proyecto Genoma Humano, esa última gran empresa del siglo xx iniciada hace diez años. El otro es una empresa privada, Celera Genomics Corp., la cual, a base de dinero, computadoras y una estrategia menos precisa pero mucho más rápida que la usada por el Proyecto Genoma (un enfoque típicamente neoliberal, pues), estuvo a punto de ganar esta carrera de fin de siglo.

Al final, ambas empresas decidieron, gracias a la mediación diplomática de la administración de Bill Clinton, presentar públicamente sus resultados en una especie de empate técnico justo antes de llegar a la meta. Lo cual no significa que los dos científicos que dirigieron el Proyecto Genoma, Francis Collins y su antecesor James Watson (famoso por haber descubierto, junto con Francis Crick, la estructura en doble hélice del adn en 1953) hayan dejado de sentir una notoria animadversión hacia J. Craig Venter, presidente de Celera y uno de los científicos más presumidos y provocadores de los últimos tiempos.

Sin embargo, el estruendoso anuncio merece que hagamos algunas precisiones. Hay tres razones por las que el decir que se ha terminado de secuenciar el genoma humano es una imprecisión.

Primero: en realidad no se trata del desciframiento de toda la información genética de la especie humana: sólo de la de uno o unos cuantos individuos (el proyecto genoma analizó, según entiendo, adn procedente de una persona cuya identidad no es conocida, mientras que Celera analizó el de cinco individuos, en diversas proporciones). Pero debido a que –a pesar del hecho comúnmente aceptado de que no hay dos individuos genéticamente iguales (excepto los gemelos homocigóticos)– la variabilidad genética entre individuos es mínima (la más considerable diferencia entre el chimpancé Pan troglodytes y Homo sapiens es tan sólo de alrededor del uno por ciento), el determinar la secuencia del genoma de un individuo justifica la afirmación de que se conoce el genoma humano. Sin embargo, es precisamente en estas mínimas diferencias en las que radica el hecho de que algunas personas tengan enfermedades o características genéticas particulares y otras no. A partir de la información del genoma “base” que se ha determinado, habrá que determinar –de hecho, ya se está haciendo– las diversas variantes (alelos) de los genes involucrados en estas enfermedades y particularidades.

Una segunda precisión es que, aún considerándolo como un “genoma base”, no se puede decir que lo que se ha secuenciado sea el genoma humano completo, porque hay una parte mínima pero indispensable de la información genética de nuestra especie que no se encuentra en los cromosomas del núcleo, sino dentro de las mitocondrias, esas pequeñas “centrales energéticas” de nuestras células, como señaló recientemente Ruy Pérez Tamayo en un artículo publicado en Excélsior.

Finalmente, tampoco puede decirse que se ha terminado de descifrar el genoma porque Celera cuenta actualmente con el 99 por ciento de la información, mientras que el Proyecto Genoma con sólo el 97. Las partes que quedan por secuenciar son, como puede adivinarse, las más difíciles: aquellas cuya “lectura” resulta, por alguna razón, especialmente ardua.

Hechos estos comentarios, ¿qué podemos esperar de este logro histórico? No mucho por el momento, pero pronto seguramente serán identificados numerosos genes responsables de, o relacionados con, enfermedades genéticas, lo cual es un primer paso para comprender el mecanismo de las mismas y las posibles rutas para su prevención o tratamiento.

Por otro lado, las predicciones catastrofistas de los agoreros que están siempre prestos a ver en la ciencia la causa de las peores desgracias no tienen mucho fundamento. Desde luego, está descartada la creación de seres humanos diseñados para ser esclavos y otras fantasías de ciencia ficción, tanto por la actual imposibilidad técnica como por la actitud responsables que científicos y sociedades están tomando ante las nuevas tecnologías.

Un peligro más tangible es la posibilidad de discriminación genética basada en nuevas y poderosas técnicas de análisis genético, que permitan predecir la susceptibilidad de un individuo a numerosas enfermeadesa y que podrían dificultar su acceso a seguros de salud o a empleos: un escenario similar al de la película Gattacca. Sin embargo, es de esperar que conforme estas posibilidades se van convirtiendo en realidad, las sociedades vayan adaptándose y desarrollando maneras de lidiar con los posibles conflictos de un modo que no genere mayor inestabilidad.

¿Qué podemos esperar entonces para el futuro? En primer lugar, habrá que completar la secuenciación y comenzar a detectar los genes más importantes relacionados con enfermedades. También queda pendiente la tarea de determinar función del resto de genes, así como de sus secuencias reguladoras.

Con el tiempo, podemos esperar que esto lleve –quizá más rápidamente de lo que pensamos– a desarrollar nuevas y más efectivas terapias génicas, sustitución o eliminación de genes nocivos, primero de individuos y luego de pool genético de la especie

De lo que no hay duda es que, ante el nuevo futuro potencial de modificación genética, tendremos que aprender a ser responsables... pero para ello primero tendremos que estar bien informados.

28 de junio de 2000

El futuro de la computación

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 28 de junio de 2000)

No hay duda de que vivimos la era de la computación. Los avances en este campo no sólo han sido más acelerados que en ninguna otra área del desarrollo humano, sino que se trata de un cambio cualitativo. Por primera vez, el hombre tiene a su disposición una herramienta que puede competir –tal vez, para evitar amarillismos, sería mejor decir que “está a la altura”– de su cerebro.

La computadora no es sólo una máquina. Con la programación adecuada, una computadora puede convertirse en cualquier máquina que necesitemos, con la única limitación de que sólo puede trabajar con información.

Dije limitación, pero debería corregir: por ser, al igual que el cerebro, una máquina que procesa información, la computadora puede en principio simular cualquier cosa (máquina, proceso, situación). Esto hace que en un sentido pueda convertirse, así sea en un sentido virtual, en cualquier cosa (una fábrica, una tormenta, un ser vivo, una sociedad, una epidemia, un motor... ¡incluso puede simularse una computadora dentro de otra!)

Teniendo en cuenta los avances que nos han llevado de ingenios como el monstruoso eniac, que llenaba un cuarto en los primeros tiempos de la computación, a las primeras computadoras personales en los ochentas, y a las maravillas modernas que tienen un poder de procesamiento equiparable con el de las supercomputadoras de hace sólo unos años, ¿qué podemos esperar en el futuro inmediato?

Normalmente, cuando se abordan estas cuestiones se habla mucho de la creciente miniaturización y el incremento paralelo en rapidez y poder de cómputo. La nanotecnología y la fabricación de circuitos formados por moléculas ofrecen la tentadora posibilidad de llevar a la computación a sus límites físicos en cuanto a pequeñez, aunque una computadora “molecular” tendría el problema de verse afectada por efectos cuánticos que normalmente son despreciables, pero que a escalas tan pequeñas pueden afectar considerablemente la operación.

Al rescate llega la llamada “computación cuántica”, que si entiendo bien promete máquinas que podrán efectuar miles de operaciones en paralelo, al distribuir el proceso en niveles simultáneos de esa realidad misteriosa en la que habitan las partículas subatómicas (procedimientos que, debo confesar, me resultan incomprensibles).

Sin embargo, más que estos avances digamos cuantitativos (más grande, más potente, más rápido), me atraen las los futuros cambios cualitativos que probablemente sufrirán –que ya están sufriendo– las computadoras tal como las conocemos.

Las primeras máquinas personales dependían de un sistema operativo y programas almacenados en discos flexibles, que eran leídos al encender el aparato y almacenados en la memoria ram. (otros programas aún más básicos están almacenados en chips o circuitos integrados que forman parte de la máquina misma, pero la capacidad de almacenamiento de éstos es limitada.)

Posteriormente se vio que era práctico que cada computadora contara con un disco duro en el que los programas necesarios estuvieran disponibles en forma directa y rápida. El crecimiento de la cantidad de información que pueden almacenarse en los discos duros ha crecido vertiginosamente, pasando de unos cuantos megabytes a gigabytes y más allá.

Los discos compactos proporcionaron durante un tiempo un medio ideal para almacenar programas y –con el advenimiento del cd en el que se puede “escribir”– datos. Pero éstos normalmente eran transferidos al disco duro. Otros medios de almacenamiento –cintas, cartuchos zip, jazz, etcétera– han cumplido funciones similares para el respaldo y transporte de información.

Al mismo tiempo, los programas comerciales –procesadores de palabras, hojas de cálculo, gestores de bases de datos– han ido creciendo y volviéndose más y más complejos. Tanto, que hoy son conocidos como paquetes o suites, y constan de una cantidad impresionante de programas principales, formados a su vez por numerosos módulos que trabajan en conjunto.

La llegada de internet ha comenzado a cambiar nuevamente el panorama. Hoy gran cantidad de programas y hasta sistemas operativos pueden obtenerse o actualizarse “bajando” componentes directamente de la red. Si uno requiere una función para la cual el programa no está preparado, éste tomará lo que necesite del sitio adecuado en internet y se irá “armando” a sí mismo, creciendo según las necesidades del usuario.

Pero no sólo eso: hoy comienza a ser habitual que uno no sólo tenga su “página” o “sitio” en la red, sino que almacene ahí sus datos e información. Incluso hay ya programas –por ejemplo, antivirus– que uno no necesita instalar en su disco duro, porque radican en el sitio del fabricante en internet. El almacenamiento en un disco duro posiblemente sea pronto sustituido en su totalidad por una simple conexión a la red (aunque en realidad, la información seguirá estando almacenada en un disco duro: el de un servidor, es decir una máquina de gran capacidad conectada a la red y a la que a su vez están conectadas nuestras computadoras). Para que esto sea posible se requerirá que dichas conexiones sean más rápidas, confiables y baratas que ahora, de modo que uno pueda estar conectado permanentemente.

Quizá pronto desaparezca la distinción entre computadora e internet: tendremos máquinas simples, sin disco duro, y todo el almacenamiento, e incluso gran parte del procesamiento de datos, se llevará a cabo en servidores de la red. Se regresará así, aunque en otro nivel, a la misma concepción con que comenzaron muchos sistemas de cómputo: una serie de terminales conectadas a un gran procesador central. Aunque esta vez será una red innumerable de computadoras conectadas a la red mundial.

14 de junio de 2000

Difusión cultural de la ciencia

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 14 de junio de 2000)

¿Se puede hacer divulgación científica si uno no soporta a los niños, no le interesan las noticias científicas y no pretende enseñar nada?

Es frecuente que los solteros de más de treinta que no tenemos hijos enfrentemos un problema: qué hacer cuando la conversación, en un grupo de amigos, deriva –caso frecuente y casi inevitable– al tema de la crianza, virtudes y cuidado de los respectivos vástagos.

Enfrentado con esta situación, se me ocurren varias posibilidades. 1) Levantarse violentamente de la mesa y abandonar la habitación dando un portazo, opción claramente poco viable (a menos que quiera un quedar excluido del grupo de amigos). 2) Vetar el tema, otra alternativa poco prometedora e injustamente impositiva. 3) Resignarse a estar callado y escuchar a los presentes disertar interminablemente sobre un tema en el que uno no tiene el menor interés hasta que se les acabe la cuerda. Recurso que, desde luego, tampoco me parece aceptable.

No tengo la solución a este dilema (me enfrento a otro equivalente cuando la conversación, normalmente en un grupo de puros hombres, gira hacia otro de mis temas aborrecidos: el futbol). Pero la situación es semejante a la que enfrentamos los divulgadores de la ciencia que no queremos hacerle la competencia los maestros de escuela, ni nos interesa entretener infantes, ni nacimos con vocación de periodistas.

El primer caso se encarna en la llamada “enseñanza no formal” de la ciencia, que hasta donde alcanzo a entender es una especie de escuela fuera de la escuela, donde se pretende que los alumnos aprendan los conceptos científicos que sus maestros –o las lagunas en los programas de estudio, o la falta de tiempo– no les permitieron asimilar.

El problema es que precisamente una de las características esenciales de la divulgación científica, incluso una de sus mayores virtudes, es ser una actividad que busca acercar al público a la ciencia como algo que se hace por gusto, no como obligación. Y es sabido que para aprender algo, máxime si se trata de conceptos relativamente complejos o abstractos como los que pueden hallarse en la ciencia, es necesario hacer un cierto esfuerzo intelectual y de atención. En una escuela se cuentan con las condiciones para exigir a los alumnos esta dedicación, pero difícilmente puede lograrse esto cuando, por ejemplo, se visita un museo, se lee una revista o se observa un programa de televisión. Todo esto me hace pensar que probablemente la pretensión de “enseñar” ciencia sea una meta fútil para el divulgador científico.

La ciencia como mero entretenimiento infantil es otro objetivo que no resulta excesivamente prometedor para el divulgador de la ciencia. La diferencia entre una auténtica labor de divulgación –que implica necesariamente poner la ciencia al alcance de un público que no está en contacto directo con ella ni con sus lenguajes especializados– y un enfoque meramente recreativo es más o menos la que puede hallarse entre un centro de ciencia como el Exploratorium de San Francisco –o, en nuestras latitudes, un museo como Universum, por ejemplo– y un parque temático de diversiones como Epcot Center. Quizá el entretenimiento habría que dejárselo a los profesionales; por otro lado, no puedo evitar sentir que presentar la ciencia como mero entretenimiento es devaluarla un poco (opinión que, desde luego, es estrictamente personal).

El periodismo científico, por su lado, es una labor que admite muchas variantes, pero que esencialmente se caracteriza por enfocarse en lo novedoso. Se podría decir que para que algo sea periodismo tiene que se noticia: novedad. Otras características frecuentes en el trabajo periodístico son la premura con la que tiene que trabajarse y la necesidad imperiosa de contar con fuentes autorizadas y confiables, cuya información debe regularmente confirmarse, normalmente recurriendo a otras fuentes. Muchos divulgadores de la ciencia, sin embargo, nos interesamos por tratar temas que no son ni novedosos ni necesariamente importantes, aunque sí muy interesantes. El público, por su parte, necesita, para desarrollar una cultura científica, contar con antecedentes y un panorama que le permita desarrollar una perspectiva en la que las últimas noticias científicas puedan ser interpretadas y cobrar sentido, labor que no siempre logran hacer los periodistas científicos, ya sea por falta de espacio, de tiempo o hasta de interés.

Bien; y entonces, ¿a qué quiere dedicarse este hipotético divulgador científico al que describo triplemente amenazado por Escila, Caribdis y su hermana desconocida?

Simplemente a difundir, divulgar, compartir algo que a él mismo (o ella) le causa placer, le interesa y le permite llevar una vida más rica y útil: la ciencia. entendida no sólo como conocimiento, sino también como método y como forma de enfrentar la realidad.

Esta visión de la ciencia es muy similar a la que adoptan los artistas y quienes se dedican a labores de difusión cultural cuando organizan conciertos, sesiones de lectura de poesía, espectáculos de danza, recorridos arquitectónicos o exposiciones de cuadros o esculturas. No se trata de enseñar, ni de dar noticias, ni tampoco simplemente de entretener o divertir (para ello está la feria, la tv o el cine). Se trata de poner al alcance del público una parte de la cultura con la que normalmente no tiene contacto por iniciativa propia, pero que creemos que vale la pena compartir.

Así como vale la pena, a pesar del poco público que pueda apreciarlo, apoyar a un grupo que interpreta música antigua con instrumentos originales de la época, es válido defender una visión cultural de la divulgación científica que no la conciba como algo obligatorio, necesario y ni siquiera útil, sino simplemente como algo interesante, hermoso y enriquecedor. Como el arte, la ciencia no tendría por qué justificar su valor. Finalmente, junto con el arte, la ciencia es uno de los logros más elevados de la especie humana, ¿no es así?

5 de abril de 2000

La fidelidad en la divulgación de la ciencia (2)

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 5 de abril de 2000)

Después de una ausencia involuntaria, vuelvo a estas páginas con un tema que dejé pendiente. Decía en mi anterior colaboración que en la labor de divulgación científica deben satisfacerse dos criterios muchas veces opuestos: despertar (y mantener) el interés del público y al mismo tiempo ser fiel a los conceptos contenido científicos que ser presentan.

Comentaba también el excesivo celo que muchas veces ponen los expertos al juzgar los trabajos de divulgación científica. Se llega a condenar como errores lo que probablemente sean sólo versiones, formas de presentar las cosas o, en caso extremo, licencias (justificadas) que se toma el divulgador para mejor conseguir sus fines. El excesivo requerimiento de fidelidad científica se puede convertir así en un verdadero obstáculo para esta complicada labor.

Finalmente, mencioné someramente en mi escrito el asunto de la independencia del divulgador científico que, en mi opinión (y la de otros colegas), no puede ser visto como un mero canal de comunicación que el investigador puede usar para poner sus descubrimientos al alcance del público general. Quizá valga la pena detenerse un poco más en este asunto.

¿Por qué podría un divulgador, que finalmente sólo comunica conocimientos que no produce, aspirar a ser independiente (es decir, no dependiente del investigador)? Después de todo, los únicos que producen conocimiento científico son, precisamente, los investigadores (no los llamo “los científicos” para resaltar que los divulgadores, por ser profesionales dedicados a la ciencia –a la divulgación de la ciencia– tienen pleno derecho a llevar también el apellido “científicos).

En realidad, hay opiniones diversas respecto a este punto. Los periodistas científicos, por ejemplo, tienden a aceptar un compromiso implícito con la “objetividad” (o al menos a aspirar a la mayor objetividad posible). Esto determina que se conciban principalmente como responsables de obtener la información que el público requiere o que puede ser de su interés, garantizar su confiabilidad y presentarla en una forma accesible y que permita que cada quien se forme su propia opinión.

Los divulgadores científicos, por otro lado –aunque aclaro que la diferencia entre divulgadores y periodistas científicos nunca ha estado clara, ni creo que llegue a estarlo–, tendemos más a concebir nuestra labor como una creación –o, más bien, una re-creación– de la información, con fines que pueden ir de lo simplemente informativo, pasando por lo didáctico, hasta lo verdaderamente artístico o literario (los ejemplos de esto último no faltan).

Queda claro, supongo, que esta última concepción de la divulgación de la ciencia fácilmente entra en conflicto con los requerimientos de fidelidad científica. Es una labor más de tipo cultural, que no se considera necesariamente obligada a tener una “utilidad”, sino sólo a producir una obra original, interesante y adecuada a ciertos estándares (incluso estéticos).

De cualquier modo, e independientemente del enfoque que dé a su labor, un buen divulgador científico debería aspirar, como ya comentaba en la ocasión anterior, a poder cumplir su tarea en forma adecuada si depender de un “revisor” que garantice su calidad. De igual forma, creo que en la evaluación de las labores de divulgación de la ciencia, la opinión de los colegas -y, por supuesto, una ponderación cuidadosa de la respuesta del público- deberían ser los criterios decisivos, y no una “certificación” por parte de los expertos científicos.

Se me dirá que esto abre la puerta a tergiversaciones y errores por parte de los divulgadores. Cierto: como en cualquier actividad -incluida la investigación científica-, el reconocer la madurez y profesionalismo de quienes la realizan, y el otorgamiento de la relativa independencia que éstas conllevan, puede permitir abusos y equivocaciones. Pero, en un gremio maduro, el “control de calidad” interno, por parte tanto de los mismos individuos como de la comunidad de colegas, basta para garantizar que estos casos sean poco frecuentes (nunca inexistentes: la filosofía de “cero defectos” es sólo una utopía, aunque una a la que hay que aspirar).

De modo que, ¿a qué o a quién debe serle fiel el divulgador científico? No a la versión de la ciencia que manejan los expertos, la que se publica en las revistas especializadas (journals), desde luego, pues sólo es inteligible para el iniciado. Debe serle fiel a la ciencia; a la esencia de los conceptos que pretende compartir. Esto muchas veces implica transformarlos, buscarles nuevos enfoques y relaciones, e incluso reinventarlos, todo con el fin de hacerlos accesibles a su público. Si cumple con esto, el divulgador científico podrá estar seguro de honrar su compromiso de fidelidad, al tiempo que logra también, mediante la recreación de la ciencia que ofrece, cumplir el requisito de mantener interesado a su público.

19 de enero de 2000

La fidelidad en la divulgación de la ciencia (1)

por Martín Bonfil Olivera
(Publicado en Humanidades,
periódico de la Dirección de Humanidades de la UNAM,
el 19 de enero de 2000)

Quien pretende divulgar la ciencia, compartirla con el público general, se enfrenta a dos retos principales. El primero es hacerlo en forma amena, interesante, incluso estética. El segundo, que es al que me quiero referir aquí, es serle fiel al conocimiento científico: no distorsionarlo, abaratarlo ni falsearlo.

La tensión esencial

Desgraciadamente, ambos requerimientos son, en cierta forma, mutuamente contradictorios: mientras más ameno se trate de ser al realizar una obra de divulgación, más riesgo se corre de distorsionar el contenido científico que presente. E inversamente, cuanto más fiel se sea a la expresión original de un conocimiento científico, más probable es que el producto resulte críptico, aburrido e inaccesible para el lego.

Esta “tensión esencial” (parafraseando al filósofo de la ciencia Thomas Kuhn) es lo que hace que dedicarse a la divulgación científica no sea –por más que así lo crean algunos investigadores jactanciosos– una labor que pueda realizarse “al ái se va”, sobre las rodillas. Por el contrario: se requiere de la sensibilidad para dar con el tono justo, la expresión precisa, la cantidad idónea de información y contexto que permita al lector (en el caso de un escrito) acceder no sólo a la información, sino al conocimiento y, de preferencia, a esa “experiencia científica” (por analogía con la experiencia estética) que conocemos quienes gozamos de la ciencia.

Es cierto que existen algunos casos de individuos especialmente dotados en forma innata con la cualidad de ser excelentes divulgadores de la ciencia (algunos investigadores científicos tienen esta suerte, aunque son muy pocos). En caso de no pertenecer a esta minoría favorecida, el aspirante a divulgador científico tendrá que someterse a un largo aprendizaje y preparación para llegar a cumplir su cometido –poner la ciencia al alcance del público– en forma, al menos, adecuada. (Tal es el caso, sobra decirlo, de quien escribe.)

Las cadenas de la fidelidad

Hay ocasiones en que el segundo componente de esta tensión esencial llega a convertirse en una dificultad insuperable. En efecto, el requerimiento de fidelidad al conocimiento científico que se le exige al divulgador con frecuencia es excesivo y deja de ser garantía de calidad (de que no se “vulgarizará” a la ciencia) para convertirse en obstáculo en la labor de compartirla.

Desde luego, no se trata de defender el derecho del divulgador a decir mentiras o presentar información errónea, sino su necesidad de seleccionar, matizar y recrear la información de acuerdo con su criterio, con el fin de lograr una buena comunicación. Una anécdota personal quizá aclare el punto.

En una ocasión en que redacté un texto sobre las células del cuerpo humano, un especialista me señaló un grave error. “Todas nuestras células tienen un núcleo”, decía mi escrito. Pero existe una excepción: los glóbulos rojos de la sangre, o eritrocitos, carecen de este organelo. Mi crítico me exigía aclarar este punto, pues de otro modo estaba yo faltando al rigor científico y propagando una mentira. Sin embargo, luego de considerar la frase alternativa (“todas nuestras células –excepto los glóbulos rojos– tienen un núcleo”) decidí asumir la responsabilidad de dejar el texto en su forma original.

La razón inmediata de tal decisión fue que la explicación convertía una frase simple y directa, que ni siquiera era parte del meollo del escrito en cuestión (pues no se trataba de hablar de la sangre, los eritrocitos ni del núcleo celular), en una oración complicada que provoca más dudas de las que resuelve. ¿Cómo puede existir una célula que no tiene núcleo? ¿Cómo llegó a perderlo, si es que alguna vez lo tuvo? ¿Para qué sirve entonces el núcleo celular? ¿Hay células, en otros seres vivos, que también carezcan de núcleo, o es el eritrocito humano un caso único?

Aclarar estas dudas desviaría la intención original del escrito. Ignorarlas, dejaría al lector frustrado y deseoso de respuestas. Como se ve, la exigencia de explicar una excepción –el exceso de fidelidad científica– llevaba en este caso a perder mucho más de lo que se ganaba.

La independencia del divulgador

Pero había además otras razones, más profundas, detrás de mi decisión de sacrificar algo de fidelidad a cambio de claridad y amenidad. Durante mucho tiempo, los divulgadores científicos hemos estado sometidos a la supervisión de los expertos, los investigadores científicos. La concepción usual de divulgación incluía, en forma casi indispensable, la supervisión por parte de un especialista “para asegurar que no haya errores”.

Tal supervisión puede ser muy benéfica, en caso de que sea realmente necesaria. Es decir, en caso de que el divulgador no maneje la información con la familiaridad necesaria como para hablar del tema con seguridad. Pero esto no es lo deseable para un buen divulgador científico. Idealmente, el divulgador debería tener los conocimientos suficientes como para hablar de su tema con confianza, sin requerir de la supervisión del experto. Es un caso análogo al de un maestro: sin pretender que un profesor tenga el mismo nivel de conocimiento que un investigador experto en la materia, un maestro que requiriera la supervisión constante “para no cometer errores” sería considerado un mal maestro. Esto no quiere decir, claro, que el divulgador no pudiera beneficiarse, al igual que un maestro, de la colaboración con un investigador, ya sea como coautor o por medio de cursos de actualización.

Sin embargo, la situación usual –la subordinación del divulgador al experto– lleva a una posición incómoda: muchas veces, quien decide el tipo de divulgación que debe hacerse, sus objetivos e incluso los criterios para evaluarla, es no quien conoce los intereses y las necesidades del público y la mejor forma de satisfacerlas –es decir, el divulgador–, sino el experto científico (que es experto en su campo, no en divulgación).

¿Qué tanto se justifica esta situación? Seguiremos hablando de este asunto.