EDITORIAL. a historia de la sociedad humana muestra de manera inequívoca que desarrollo y fortaleza del sistema educativo son sinónimos.


Save this PDF as:
 WORD  PNG  TXT  JPG

Tamaño: px
Comenzar la demostración a partir de la página:

Download "EDITORIAL. a historia de la sociedad humana muestra de manera inequívoca que desarrollo y fortaleza del sistema educativo son sinónimos."

Transcripción

1

2 EDITORIAL Educación: Una visión política de Estado DIRECTORIO Consejo Editorial UNAM RECTOR Dr. José Narro Robles SECRETARIO GENERAL Dr. Eduardo Bárzana García SECRETARIO ADMINISTRATIVO Lic. Enrique del Val Blanco ABOGADO GENERAL Lic. Luis Raúl González Pérez COORDINADOR DE LA INVESTIGACIÓN CIENTÍFICA Dr. Carlos Arámburo de la Hoz CAMPUS JURIQUILLA CONSEJO DE DIRECCIÓN Dr. Raúl Gerardo Paredes Guerrero Dr. Ramiro Pérez Campos Dr. Gerardo Carrasco Núñez Dr. German Buitrón Méndez Dr. Juan B. Morales-Malacara Dr. Saúl Santillán Gutiérrez COORDINADOR DE SERVICIOS ADMINISTRATIVOS Arq. Pedro Beguerisse Ortiz JEFE UNIDAD DE VINCULACIÓN Juan Villagrán López CONSEJO EDITORIAL Carlos M. Valverde Rodríguez Juan Martín Gómez González Rosa Elena López Escalera Alejandro Vargas Casillas Enrique A. Cantoral Uriza DISEÑO Y FORMACIÓN I.S.C. Oscar L. Ruiz Hernández GACETA UNAM, CAMPUS JURIQUILLA es una publicación trimestral editada por la Unidad de Vinculación, Difusión y Divulgación Universitaria del Campus. Boulevard Juriquilla No. 3001, Juriquilla, Qro. MÉXICO, C.P Certificado de reserva de derechos al uso exclusivo de titulo Nº Impresión: Diseño e Impresos de Querétaro, S.A. de C.V., Av. Universidad #166 Oriente. Col. Centro. Tiraje: 1500 ejemplares TELÉFONOS VINCULACIÓN (442) , 32 y 35 CORREO ELECTRÓNICO L a historia de la sociedad humana muestra de manera inequívoca que desarrollo y fortaleza del sistema educativo son sinónimos. Actualmente, esta función civilizatoria de la educación es especialmente clara en los países de economías desarrolladas que invierten en su sistema educativo y en la preparación de profesores, impactando directa y positivamente en la formación de los individuos que componen sus sociedades. Allí, los recursos que se destinan a la educación y a la investigación científica y tecnológica son una inversión productiva y estratégica económico-social. El resultado es: sociedades más cercanas a la equidad, a la democracia y a la competitividad. Sin duda un círculo virtuoso que no se ha querido ni podido reproducir en nuestro país. En el México de las últimas cuatro décadas, la educación y la cultura no han sido una prioridad e incluso son los primeros rubros que se ven afectados negativamente en el presupuesto. Con una población cercana a los 112 millones de habitantes (INEGI, 2010), nuestro país cuenta con 53 millones (47%) de jóvenes menores de 24 años de edad. En este llamado bono demográfico, cerca de la mitad (21 millones) tienen entre 15 y 24 años de edad, y de ellos apenas el 40% tiene acceso a educación media superior y superior. Cómo transitaremos de ser un país en vías de, hacia uno en desarrollo? Hemos comprobado que una sociedad que sólo vende materias primas y compra bienes elaborados no ha sido la solución, nos sale muy caro como país y las desigualdades son muchas; por ejemplo, más de la mitad de la población vive en la pobreza (26 millones de ellos en pobreza extrema) y 6.9% de la población de 15 años y más es analfabeta. Estos datos, dejan entrever que la solución no está en privatizar la educación, tal como se ha insistido desde la década de los 70 s, pues sólo un 10% de la población escolar puede tener acceso a esta. Para corregir esta miopía y acceder a la socie- dad del conocimiento, se requiere que la educación sea una prioridad nacional. No se trata solamente de tener más aulas, o más becas, o computadoras; el personaje principal de este cambio es el profesor. Necesitamos más y mejores profesores en cuya actualización y preparación participen los investigadores y cuadros docentes de las universidades y centros de investigación del país. Un ejemplo de que esto es posible, lo tenemos en la UNAM. Resistiendo un sinnúmero de ataques para desprestigiar la calidad de la educación y sus aportes, cada año cerca de 300,000 estudiantes tienen la oportunidad de formarse en la principal institución pública del país. La UNAM, como parte de las universidades públicas, y congruente con su compromiso social, juega un papel preponderante como referente en los nuevos polos de desarrollo promoviendo el crecimiento de éstas. Este aporte se puede extender a la consolidación de la formación de profesores de los niveles básicos, como un complemento importante de su permanente actualización. Se trata de una inversión en la que todos ganaríamos, sólo se deben de establecer los mecanismos de acercamiento entre estos actores. Paralelamente debemos impulsar el desarrollo de la ciencia y la tecnología en las empresas. El gobierno debe proponer a las trasnacionales que estas actividades las realicen en el país. Los países más desarrollados condicionan que las transnacionales destinen un porcentaje de sus ganancias a las universidades. Ello apoyaría y fomentaría la economía y el desarrollo del sector educativo. Impulsar la educación e investigación nacionales permitiría transitar hacia una independencia económica a mediano plazo, posicionando al país en la dinámica global. Es solo cuestión de una verdadera visión política de estado y atreverse. 2

3 Llevando las Ciencias de la Tierra a las escuelas primarias de Querétaro Susana A. Alaniz-Álvarez1, Juan Martín Gómez-González1, Bernardino Barrientos García2, Angel F. Nieto-Samaniego1, Jesús Silva Corona1, Carolina Muñoz-Torres1, Paola Botero Santa3, Isidro Loza Aguirre3 y Daniel García Moreno4 U no de los grandes retos de los centros de investigación en México es llevar la ciencia al público en general, particularmente a los niños en las escuelas. Con este propósito decidimos constituir el taller Cadena por la Ciencia, al cual se sumaron los esfuerzos y experiencia de varias instituciones: el Centro de Geociencias (CGEO) de la UNAM en el Campus Juriquilla,, la Unidad de Servicios de Educación Básica del Estado de Querétaro (USEBEQ) y el Consejo de Ciencia y Tecnología del Estado de Querétaro (CONCYTEQ). El taller tiene como objetivo llevar y explicar los libros y conceptos básicos de la serie Experimentos simples para entender una Tierra complicada (ESPETIC), publicada por el CGEO, a las escuelas primarias públicas del estado de Querétaro. Pretendemos mostrar que la ciencia es divertida y una forma de pensamiento útil para la vida cotidiana, analizando cómo inició el conocimiento de algunos de los grandes 3 temas de la ciencia -la gravedad, la composición y propiedades de la luz, la flotabilidad y las ondas- con experimentos sencillos de grandes científicos en la historia como Galileo, Newton, Arquímedes, Foucault y Young, Los autores de este escrito hemos impartido el taller a más de ochocientos maestros de escuelas primarias públicas del estado de Querétaro. A cada escuela se le entregó un juego que contiene seis libros impresos de la serie ESPETIC, el material para hacer todos los experimentos que vienen en los libros, un CD con los libros, cuestionarios, tablas para llenar y entregar los resultados del taller y respuestas a los cuestionarios, los últimos en formato digital. Los recursos para adquirir estos materiales fueron aportados por la Coordinación de la Investigación Científica de la UNAM, la Academia Mexicana de Ciencias, el CONCYTEQ, el Centro de Geociencias de la UNAM y las compañías mineras Fresnillo PLC e Industrias Peñoles. La USEBEQ proporcionó la logística para llevar el taller a cientos de maestros, así como para el seguimiento del mismo en las aulas. En 2009 se implementaron los primeros tres libros de la serie: 1. La presión atmosférica y la caída de los cuerpos, 2. La luz y los colores y 3. Eureka! los continentes y los océanos flotan. En este segundo año se añadieron dos libros más: 4. El clima pendiendo de un hilo y 5. La Tierra y sus ondas. Cadena por la Ciencia consiste en tres pasos: 1) contestar un cuestionario con preguntas relacionadas con fenómenos naturales observados en la vida cotidiana, 2) hacer los experimentos de cada libro (contienen entre 6 y 8 experimentos) y 3) discutir en grupo las respuestas al cuestionario de cada libro con base en lo observado en los experimentos.

4 Se registran las respuestas del grupo antes y después de hacer los experimentos de los libros mencionados; estas respuestas se leen. Se debe realizar un taller por libro cada día y toma aproximadamente tres horas hacer todos los experimentos de cada libro y leer en pantalla las instrucciones, analizar las explicaciones y discutir las aplicaciones en la vida cotidiana y en la Naturaleza. Gracias a la buena comunicación de los maestros con nosotros, así como a las respuestas de los cuestionarios y a encuestas con adultos, hemos identificado que hace falta el enfoque científico en la instrucción básica (y en ocasiones, también en la educación media y superior) para entender muchos fenómenos que observamos en la vida cotidiana y que se pueden enseñar con el taller Cadena por la Ciencia fácilmente desde la primaria. Mencionaremos algunos ejemplos relacionados con lo mostrado en los libros 1 y 3: Uno de los conceptos más difíciles de adquirir es que el aire tiene peso, ya que no lo sentimos, debido a que la presión atmosférica actúa en todas direcciones con la misma fuerza. Sin embargo, sí se puede percibir que el aire que está dentro de un globo está a mayor presión que el de afuera. Con el taller queremos que esa diferencia de presión se relacione con la que se debe sentir entre el nivel del mar y arriba en la sierra que, de alguna manera, se debe al peso del aire. Todos, desde pequeños, percibimos que algo es pesado. En el taller queremos que se conceptualice al peso como una fuerza ejercida por la gravedad sobre un cuerpo con masa. En general todos hemos estado sumergidos en agua, pero hemos visto que pocos tienen la noción que pesamos diferente adentro que afuera del agua. Si sabemos que el peso es una fuerza dirigida hacia el centro de la Tierra (de acuerdo con lo visto en el libro 1) y que la flotabilidad es una fuerza dirigida hacia arriba, equivalente al peso del fluido desplazado (de acuerdo con el Principio de Arquímedes que se ve en el libro 3), entonces podremos notar que pesaremos casi nada adentro del agua. Fue muy alentador contar con las observaciones de los maestros en el segundo año del taller. Mencionaremos algunas de ellas: un maestro de San Juan del Río comentó, con base en lo que habíamos visto que las personas que asisten durante el equinoccio a las pirámides vestidos de blanco para atraer la energía solar, realmente lo que hacen es mostrar su ignorancia, ya que el blanco lo que hace es reflejar los rayos solares. Otro maestro de Cadereyta nos platicó que nosotros le dijimos que el aceite es menos denso que el agua, pero él había observado que el aceite usado era más pesado, posiblemente debido a los sedimentos que contenía.una maestra de Amealco nos preguntó por qué había visto un arco iris cuando no había lluvia, aunque había notado que, en efecto, se podía ver el arco iris únicamente cuando el sol estaba cerca del horizonte para que hubiera un ángulo de 42 entre los rayos solares y la dirección de nuestra mirada. Cuando explicamos la presión atmosférica, un maestro de Querétaro hizo la observación de que, entonces, si quitáramos el aire bajo nuestra mano extendida podríamos sentir el peso del aire. Sin duda estos comentarios reflejan que el taller de 2009 había provocado que los maestros prestaran más atención con una mirada científica a fenómenos que han visto muchas veces. En 2010 se obtuvieron los resultados de 22,000 niños de primaria, de los cuales el 5% era del primer grado, el 10% del segundo, el 14% del tercero, el 19% del cuarto, el 24% del quinto y el 28% del sexto grado. El incremento en respuestas correctas desde antes hasta después de hacer los experimentos fue casi igual en todos los niños, pero los niños del 4, 5 y 6 grados lograron alcanzar más de 70% de respuestas correctas. Los niños de segundo fueron los que más disfrutaron los experimentos, mientras que los que mejor entendieron los fenómenos naturales, usando los experimentos como proceso de aprendizaje, fueron los niños de los últimos tres grados. Las preguntas relacionadas con los experimentos de la caída de los cuerpos de Galileo Galilei (la velocidad de caída es independiente del peso del cuerpo y dependiente de la aceleración de la gravedad), la descomposición de la luz de Newton (la luz blanca contiene todos los colores) y de la flotabilidad de Arquímedes (los objetos pesan distinto afuera que dentro del agua) tuvieron un aumento considerable de respuestas correctas en niños mayores, pasando de a 74.0%, de 26.8 a 73.7% y de 52.4 a 74.7%, respectivamente. La mayoría de los niños realizó el taller bajo la asesoría de un maestro que había sido instruido a su vez por otro maestro que había tomado el curso con nosotros. Por ello denominamos a este esfuerzo Cadena por la Ciencia. Lo positivo de los resultados nos animó a crear una página web taller_ciencia.html, con toda la información necesaria para llevar a cabo este taller: instrucciones, libros en formato digital (PDF), cuestionarios, respuestas correctas a los cuestionarios, tabla de captura de respuestas, material necesario y videos de los experimentos. El taller completo lo puede llevar a cabo cualquier maestro en un aula de clases que tenga un proyector. Si bien es más recomendable hacer los experimentos a partir del 4 año de primaria, éstos pueden hacerlos los niños desde pre-escolar. Los libros impresos y los kits para maestros pueden adquirirse bajo pedido en el Centro de Geociencias, en el campus Juriquilla UNAM y en las librerías de la UNAM en la ciudad de México. Figuras: Fragmento de un informe entregado por una escuela de Amelaco, Qro. Equipo de Trabajo: 1 Centro de Geociencias, UNAM, campus Juriquilla, C. P , Querétaro, Querétaro, México. 2 Centro de Investigaciones en Óptica, A.C., Loma del Bosque #115, Col. Lomas del Campestre, León, Guanajuato, C. P , México. 3 Posgrado en Ciencias de la Tierra, UNAM, campus Juriquilla, C.P , Querétaro, Querétaro, México. 4 CONCYTEQ, Consejo de Ciencia y Tecnología del Estado de Querétaro, Luis Pasteur Sur No. 36, Centro. Querétaro, Qro, C. P , México 4

5 Fibras ópticas: Principios, fabricación y usos Miguel Ángel Ocampo Mortera Las fibras ópticas son filamentos flexibles, tan delgados como un cabello humano, que aún cuando se curven, pueden transportar la luz introducida en uno de sus extremos hasta su salida por el otro. Constituyen un medio eficiente de comunicación y la base de múltiples aplicaciones. Su estructura básica consiste de dos materiales transparentes concéntricos; el núcleo, que es la parte central de la fibra, y que lleva la mayor parte de la luz alimentada, y el revestimiento, una estructura cilíndrica que envuelve al núcleo y mantiene confinada la luz transportada mediante su constante reflexión en la interfaz entre los dos materiales. Esta estructura es comúnmente cubierta por otros materiales que, aunque no inciden directamente en su capacidad para conducir la luz, le confieren protección mecánica o ante elementos ambientales adversos. El confinamiento de la luz que viaja por una fibra requiere que ésta se introduzca y mantenga con un ángulo relativamente pequeño con respecto al eje de la estructura. La posibilidad de curvar una fibra se encuentra limitada por esta restricción, de manera que cuando se desea enviar la luz a grandes distancias, el radio de curvatura de la fibra debe mantenerse por arriba de algunos centímetros. Por la misma razón, la luz que incide con ángulos grandes se escapa rápidamente y no puede ser transmitida. Sin embargo, para algunas aplicaciones, las pérdidas inducidas por curvado de la fibra, o las restricciones direccio- nales en la luz que se desea acoplar, ofrecen una manera de detectar el cambio de alguna variable de interés. La estructura de una fibra puede adoptar formas sofisticadas para potenciar su uso en diversas aplicaciones. En el ámbito de las comunicaciones la variación gradual del índice de refracción de las fibras ópticas permite aumentar la velocidad de transmisión de información u optimizar su desempeño a una longitud de onda de interés. La adopción de geometrías asimétricas permite separar o filtrar las componentes de la luz por su estado de polarización. También se pueden incluir filamentos metálicos de dimensiones micrométricas para modular las componentes lumínicas de las señales transmitidas, al aplicar un campo eléctrico al núcleo de la fibra. Recientemente se han desarrollado métodos para hacer fibras ópticas con múltiples núcleos que funcionan, bajo diferentes regímenes de comportamiento, como arreglos coherentes de fibras ópticas, capaces de transmitir imágenes planas, o como estructuras fotónicas en las que la luz puede viajar por los distintos núcleos que conforman la estructura, dando lugar a patrones de comportamiento que presentan regiones de transmisión y de opacidad en su espectro de transmisión. Las fibras ópticas pueden ser de sílice (vidrio) o poliméricas (plástico). Ambas se pueden fabricar mediante el estirado de preformas, y en el caso de las poliméricas (FOP) también es posible obtenerlas mediante la co-extrusión de los dos o más materiales que las constituyen. En ambos casos la pureza y uniformidad de los materiales de la fibra son determinantes para su transparencia, requiriendo que las impurezas más dañinas se mantengan por debajo de unas cuantas partes en mil millones. Las fibras de sílice son una cien veces más transparentes que las poliméricas, y son capaces de transmitir señales luminosas a más de Torre de estirado de preformas para la obtención de fibras ópticas poliméricas, diseñada y construída en el CFATA 5

6 a Figuras que ilustran el proceso de estirado de preformas para la obtención de fibras ópticas. a. Una preforma, cuya estructura es la de la fibra que se desea obtener, pero con dimensiones varias veces mayor, es introducida en el horno de la torre para su estirado. b. En el horno, la preforma se reblandece y escurre, formando un cuello del que se obtiene la fibra. La medición del diámetro a la salida permite ajustar las variables de proceso para su estabilización. c. Un sistema de estiramiento, controlado por una red neuronal, mantiene constante el diámetro de la fibra obtenida. c b 100 km sin necesidad de regeneración. Aún así, las FOP son unas mil veces más transparentes que un vidrio ordinario de ventana, resultando adecuadas para su uso en comunicaciones relativamente locales, en las que las longitudes típicas son de alrededor de 1 km. En el Laboratorio de Fibras Ópticas del CFATA hemos optado por el método de estirado por su potencialidad para producir fibras con estructuras sofisticadas y porque permite un mayor control de la pureza de los materiales que conforman la fibra. Este sistema se basa en la obtención de una preforma, que es una barra con las estructuras geométrica y material que se pretenden en la fibra óptica a producir, pero en una escala cientos de veces mayor. Su posterior estirado permite obtener las dimensiones deseadas. A la fecha, hemos logrado producir los materiales necesarios para fabricar preformas con alta uniformidad c y transparencia, y controlado el proceso de estirado para obtener fibras ópticas que cumplen las especificaciones internacionales de referencia en el campo. El sistema desarrollado, mostrado parcialmente en las figuras que acompañan esta nota, introduce la preforma al horno de reblandecimiento con una velocidad estable. Al aumentar su temperatura, el material de la preforma fluye lentamente, dando lugar a la formación de un cuello del que se desprende la fibra óptica. Ésta sale del horno enfriándose rápidamente a una velocidad que compensa exactamente la entrada de material (como preforma) para establecer de este modo la estabilidad del proceso. El diámetro de la fibra y la tensión del material son medidos para retroalimentar el sistema de control central del proceso, que compensa los efectos de las flutuaciones de temperatura en el interior del horno, y de las heterogeneidades en los materiales que componen la preforma. Nos hemos enfocado a la obtención de FOP s porque los polímeros son intrínsecamente modificables, es posible diseñarlos y fabricarlos para incorporar cualquier especie atómica o molecular, permitiendo su inclusión eficiente en fibras con características prediseñadas o potencialmente útiles para aplicaciones específicas. Ejemplos de tales materiales incluyen polímeros con comportamientos altamente no-lineales, con efectos electro-óptico o magneto-óptico pronunciados, birrefringentes, fotosensibles, o para la detección de sustancias químicas, entre otros. Actualmente estamos diseñando y fabricando fibras ópticas fluorescentes para la obtención de un láser de fibra óptica para uso en espectroscopía, estamos en proceso de diseñar y construir un sistema con desplazamiento controlado de una cabeza sensora para el desarrollo de un microscopio ópticos de barrido con resolución micrométrica y desarrollamos un método para fabricar fibras ópticas multiestructuradas, capaces de transmitir imágenes y para la obtención de fibras con comportamientos sofisticados. También estudiamos el uso de las fibras ópticas para el sensado de sustancias químicas en soluciones de muy baja concentración. El desarrollo de la metodología para fabricar fibras ópticas y su integración en sistemas de utilidad específica nos permite abordar la mayor parte de la cadena de fabricación de dispositivos funcionales y con potencial para su comercialización, este esquema de trabajo subyace la orientación que hemos dado al Laboratorio de Fibras Ópticas. El Dr. Miguel Ángel Ocampo ha desarrollando investigación sobre la fabricación de fibras ópticas con aplicaciones específicas, inicialmente en la industria y actualmente en la UNAM, en donde funge como el responsable del laboratorio de Fibras Ópticas del CFATA. 6

7 UNIDAD MULTIDISCIPLINARIA DE DOCENCIA E INVESTIGACIÓN FACULTAD DE CIENCIAS, JURIQUILLA El origen de irreversibilidad termodinámica: Un acercamiento novedoso a un problema clásico Iván Santamaría-Holek E l concepto de irreversibilidad es de enorme importancia en las ciencias. De hecho nuestra percepción existencial del devenir del tiempo está determinada por completo por ese concepto. Dicho concepto es más claro cuando tenemos en mente la diferencia entre el nacer y el morir, y por supuesto entre todos los estados intermedios de nuestra vida, como crecer y envejecer. Gracias a la experiencia personal ante estos fenómenos, y muchos otros aspectos de la realidad cotidiana, percibimos que el tiempo tiene un sentido de avance definido, es decir, que sigue una flecha del tiempo. Además de reflejar nuestra experiencia personal, el concepto de irreversibilidad es crucial para explicar diversos fenómenos de naturaleza fisicoquímica que desempeñan un papel importante en los procesos industriales y biológicos. Incluso la evolución natural se ha intentado explicar en términos de la irreversibilidad. Se trata de un concepto objetivo que la física define con precisión en disciplinas como la termodinámica, la física estadística y más recientemente la mecánica clásica. De hecho, la física cuantifica la irreversibilidad de manera precisa por medio de la entropía, cantidad introducida en el siglo XIX al postularse la ley de entropía (segundo principio de la termodinámica) como una ley fundamental de la naturaleza (Sadi Carnot, Lord Kelvin, 7 Rudolf Clausius y Max Planck). De manera sucinta, puede decirse que la irreversibilidad se relaciona con la creación o producción de entropía, y por lo tanto con su aumento. Esto se puede ilustrar si consideramos un sistema, separado del universo, que evoluciona en el tiempo. Si bien en este sistema la energía total se conserva, la entropía sólo puede crecer, es decir, producirse o crearse si el proceso que realiza el sistema es irreversible. A finales del siglo XIX, con la formulación de la teoría cinética de los gases analizada por científicos como James C. Maxwell y Ludwig Boltzmann, y la mecánica estadística, por John W. Gibbs o Albert Einstein, se pretendió explicar la ley de crecimiento de la entropía a partir de conjugar apropiadamente conceptos elementales como átomos o partículas, las ecuaciones de movimiento de Newton y la teoría de las probabilidades. 1 Según la mecánica estadística, un sistema compuesto por muchas moléculas que interactúan entre sí manifiesta un comportamiento colectivo (macroscópico), tal que sigue la ley de incremento de la entropía. Dado que esta 1 Con el tiempo la formulación de la mecánica cuántica trajo nuevos problemas y cuestionamientos acerca de la naturaleza de la irreversibilidad. Sin embargo, por claridad nos restringiremos a comentar el aspecto clásico de la misma. ley establece que la evolución dinámica de un sistema cerrado sólo puede ocurrir de manera tal que la entropía se incremente, la evolución es irreversible, pues establece una diferencia esencial entre inicio y fin. Sin embargo, si se invirtiera el sentido del tiempo aparentemente podríamos detectar su inversión, ya que la entropía inicial sería mayor que la final, lo que contradice el segundo principio. Es importante enfatizar que las interacciones y dinámicas individuales de los átomos y moléculas que componen al sistema macroscópico siguen las leyes de movimiento de la mecánica clásica de Newton. Pero las leyes de Newton son reversibles!. No establecen una diferencia esencial entre el estado inicial y el final, pues si la dirección con la que el tiempo corre se invierte, la situación sigue siendo perfectamente válida, a diferencia del caso termodinámico en el que la disminución de la entropía permite discernir un inicio y un fin temporales de forma absoluta. Una de las preguntas fundamentales que la mecánica estadística ha tratado de responder a lo largo de su historia es: cómo es posible que un conjunto de moléculas cuyos movimientos microscópicos están regidos por leyes dinámicas microscópicas reversibles den lugar a leyes dinámicas macroscópicas que son irreversibles? Son contradictorias o no ambas teorías?

8 UNIDAD MULTIDISCIPLINARIA DE DOCENCIA E INVESTIGACIÓN FACULTAD DE CIENCIAS, JURIQUILLA La primera respuesta a esto la dio Boltzmann al plantear la conocida teoría cinética de los gases, que contiene una hipótesis fundamental llamada: Hipótesis del caos molecular. En los últimos 140 años se ha avanzado en la comprensión del origen de la irreversibilidad en la que la discusión se ha centrado en dos enfoques: i) el mecánico-estadístico y ii) el mecanicista, por medio de la llamada teoría de sistemas dinámicos. En particular, este segundo enfoque ha planteado la idea de que la irreversibilidad está asociada con la aparición del caos en el movimiento de las moléculas, ya que el caos impide predecir el estado del sistema (posición y velocidad de las moléculas) con suficiente precisión. Como consecuencia de esto, para extraer alguna información sobre el comportamiento del sistema de partículas es necesario usar la teoría de probabilidades. En términos técnicos, el caos aparece como consecuencia del acoplamiento y la no linealidad intrínseca de las interacciones entre las moléculas. Un ejemplo bien conocido del papel que desempeña el caos en la pérdida de la capacidad de predicción lo constituye la restringida predictibilidad del clima por los meteorólogos. 2 2 En este ejemplo, las ecuaciones dinámicas que llevan a comportamientos caóticos están escritas para variables como la velocidad, temperatura y densidad del aire considerado como medio continuo. Es notable que pese a todos los esfuerzos realizados a lo largo de la historia, hasta años recientes no se hubiera conseguido observar directamente la transición entre un comportamiento reversible mecánico y uno irreversible colectivo. Son compatibles entre sí la irreversibilidad dinámica (caos) y la irreversibilidad termodinámica establecida por la ley de crecimiento de la entropía? En 2005, un grupo de científicos norteamericanos 3 logró observar directamente dicha transición, por primera vez. Para ello realizaron una serie de experimentos utilizando suspensiones de partículas suficientemente grandes en un fluido de alta viscosidad, esta combinación impidió a las partículas realizar difusión natural (Figura 1). La suspensión fue puesta entre dos cilindros concéntricos, uno de los cuales se hizo oscilar lentamente. Las observaciones reportadas son las siguientes: i) En reposo las partículas permanecen en su lugar independientemente de la temperatura del sistema (ver Figura 1). ii) Al girar de manera oscilatoria el cilindro exterior se induce a su vez que el fluido y las partículas se muevan de forma oscilatoria (ver Figura 2). Figura 1. Movimiento Browniano. Partículas pequeñas (1 micra de diámetro) realizan movimiento Browniano en un líquido poco viscoso a temperatura T. Partículas grandes (1 milímetro de diámetro) no realizan movimiento Browniano en un líquido muy viscoso. iii) Si la velocidad de giro y la frecuencia son suficientemente bajas, entonces se observa que 3 D. Pine, J. Gollub, J. F. Brady, M. Leshansky, Nature 438, 997 (2005). el movimiento de las partículas es oscilatorio y reversible y después de cada periodo de movimiento las partículas vuelven a su posición inicial. iv) Si, en cambio, para una frecuencia baja se incrementa la velocidad de giro por arriba de un valor crítico, entonces el movimiento de las partículas se hace oscilatorio e irreversible y las partículas ya no vuelven a su posición inicial. Por medio de simulaciones por computadora se mostró que el movimiento de las partículas es efectivamente caótico. Más interesante aún fue la observación de que el movimiento de las partículas puede describirse en términos probabilísticos de manera similar a como se describe el movimiento browniano de partículas microscópicas. La diferencia en este caso es que la velocidad de crecimiento del área que cubren las partículas suspendidas en el líquido crece proporcionalmente con la velocidad de giro γ gamma, con el diámetro al cuadrado de las partículas y con el tiempo. En el caso del movimiento browniano de partículas pequeñas el área crece con el tiempo proporcionalmente con el coeficiente de difusión de las partículas. Puede mostrarse teóricamente la equivalencia entre las irreversibilidades dinámica y termodinámica? Afortunadamente, la respuesta es sí. Una explicación teórica del proceso la aportó el grupo de Física Estadística y Fluidos Complejos de la Unidad Multidisciplinaria de Docencia e Investigación de la Facultad de Ciencias en Juriquilla. En colaboración con el Dr. Guillermo Barrios del Valle, del Centro de Investigación en Energía, propusimos un formalismo teórico basado en el principio de entropía que demuestra dicha compatibilidad. Calculando la entropía producida por el sistema durante la evolución del experimento, es decir, su grado de irreversibilidad, pudo mostrarse que el acoplamiento entre las partículas debido a la presencia del líquido lleva a un comportamiento de las partículas en suspensión tal que, para una concentración fija de partículas, existe un valor crítico de la velocidad de giro a partir del cual aparece el movimiento irreversible caótico. Nuestro análisis permitió encontrar una fórmula exacta con el escalamiento del coeficiente de difusión efectivo obtenido tanto en los experimentos 8

9 Figura 2. Observación directa de la transición entre un comportamiento reversible e irreversible. Celda de Couette cilíndrica, vistas lateral y de planta, y descripción gráfica esquemática del experimento y de los resultados obtenidos. Por medios de videograbación se observa el movimiento de las partículas (puntos negros y círculos verdes) cuando el cilindro externo (líneas azules) oscila con frecuencia w y velocidad γ. Si γ<γc (velocidad crítica), entonces el movimiento de las partículas es perfectamente reversible después de miles de oscilaciones. Si γ>γc entonces el movimiento de las partículas se hace irreversible mecánico (caótico), las partículas no vuelven más a la posición inicial r(0). como en las simulaciones. Demostramos que al acoplarse el movimiento de una partícula con las demás aparecen nuevas formas de disipación de la energía cinética del sistema en calor, o sea, la transferencia irreversible de energía. Esas formas de disipación de la energía no están asociadas con las partículas per se, sino con el acoplamiento de sus movimientos respectivos, esto es, con el comportamiento colectivo del sistema. Así, el origen 9 del movimiento caótico por el acoplamiento de los movimientos de las partículas da lugar a un comportamiento colectivo en el que aparecen nuevas formas de degradación de la energía cinética (energía útil para realizar trabajo), que tiene como consecuencia la liberación de calor o entropía. Nuestro trabajo permite concluir que la irreversibilidad dinámica es perfectamente com- patible con la irreversibilidad termodinámica, aunque esta última es, de hecho, más general que la primera ya que también tiene lugar en sistemas sin interacciones, como los gases ideales. Dr. Iván Santamaría-Holek, profesor titular de la Unidad Multidisciplinaria de Docencia e Investigación Facultad de Ciencias

10 sitios.iingen.unam.mx/lipata/ No todo se mide mi estimado, y sin embargo se aprecia Alejandro Vargas y Jaime Moreno E stimados lectores: no solamente apreciamos, también estimamos a quienes leen este texto. Atraídos por su título seguirán leyendo, porque nuestra estimación de que no dejarán de hacerlo hasta que finalmente se enteren de qué trata ha sido correcta. Sí, de eso trata este texto, de la estimación en el sentido de la adivinación razonada, de la posibilidad de hacer una predicción acerca de lo que ocurre por la mente del lector al interpretar estas palabras escritas. Sólo que en nuestro caso la predicción no es aplicada a la sicología amateur de este párrafo introductorio, sino a la que se hace para estimar variables o parámetros que no se pueden medir en sistemas tecnológicos. Es indudable que las soluciones tecnológicas a los problemas causados por el ser humano requieren cada vez más de la interacción entre disciplinas. Así, en el Laboratorio de Investigación en Procesos Avanzados de Tratamiento de Aguas (LIPATA), del Instituto de Ingeniería de la UNAM en su Unidad Académica en Juriquilla, investigamos algunos procesos ambientales desde varias perspectivas. Una de ellas es la teoría de control, que es la interdisciplina de la ingeniería y las matemáticas que estudia la dinámica de los sistemas y cómo regularlos, sean estos físicos, químicos, biológicos o sus múltiples combinaciones. En el LIPATA usamos la teoría de control para identificar y analizar los sistemas bioquímicos y fisicoquímicos que se emplean para el tratamiento de aguas, así como para proponer y probar experimentalmente sistemas de control automático para estos procesos. Por ejemplo, en una planta de tratamiento de aguas residuales (PTAR) municipal, hasta el 70% de la energía eléctrica se emplea para operar los sopladores que inyectan aire a través de difusores que están distribuidos en el fondo de algunos tanques de la planta. Esto se hace porque se requiere proporcionar suficiente oxígeno a algunos microorganismos (en este caso aquellos llamados aerobios) que llevan a cabo la transformación de los contaminantes presentes en el agua a sustancias menos dañinas para el ambiente. Muchas PTAR operan manteniendo los sopladores encendidos permanentemente, proporcionando un flujo de aire constante. Sin embargo, a veces los requerimientos de oxígeno de los microorganismos son bajos, por ejemplo cuando el agua llega poco concentrada de contaminantes (como a la media noche), lo cual provoca que el nivel de oxígeno disuelto en los tanques suba de manera innecesaria. Por ello, en muchas plantas se han instalado controladores automáticos que, midiendo continuamente la concentración de oxígeno disuelto, regulan el flujo de aire a los tanques de aeración para tratar de mantener el oxígeno en un nivel adecuado y a la par no gastar más energía eléctrica de la necesaria. El ejemplo anterior sirve para ilustrar varios componentes de un sistema de control. Por un lado, se requiere un sensor, es decir, un instrumento que permite medir en línea, continua y automáticamente, alguna variable de interés como la concentración de oxígeno disuelto. Por otro lado, se requiere un actuador, que es aquel dispositivo que permite cambiar alguna condición del proceso que tiene un efecto directo sobre la variable de interés. En el ejemplo anterior, los actuadores son los sopladores que determinan el flujo de aire que llega a los difusores. Para ligar ambos componentes se requiere un algoritmo de control, o sea un conjunto de instrucciones o reglas que deciden qué es lo que el actuador debe hacer en función de lo que mide el sensor. Muchas veces el algoritmo de control puede expresarse matemáticamente como un conjunto de ecuaciones algebraicas o diferenciales y está contenido en un programa informático en una computadora o un microprocesador. La teoría de control ayuda a diseñar o proponer el algoritmo de control adecuado para un proceso particular. Si bien existen leyes de Toma de muestras para análisis y corroboración de los estimadores de estado. 10

11 disuelto), pero para la mayoría de las variables de interés en una PTAR este no es el caso. Por ejemplo, un parámetro importante en una PTAR es la demanda química de oxígeno (DQO), que es una medida de qué tan contaminada está el agua. Este parámetro puede medirse en el laboratorio, pero la prueba es tardada y compleja, por lo que resultaría inútil para controlar el proceso. Qué hacemos entonces? La respuesta nuevamente la da una herramienta de la teoría de control. Se trata de los sensores por software, también llamados estimadores u observadores de estado (de ahí el título de este texto). Sistema piloto de laboratorio de tratamiento de aguas en el LIPATA. control estándar, que pueden ser aplicadas directamente, resulta mucho mejor diseñarlas con base en el mayor conocimiento posible del proceso en cuestión. Para ello resulta enormemente útil contar con un modelo matemático del mismo. Una rama importante de la teoría de control es el modelado e identificación de sistemas, que se dedica precisamente a desarrollar y ajustar modelos matemáticos de los procesos. El modelo también sirve para probar analíticamente que el controlador propuesto funciona; esto es, para analizar cómo resultará el comportamiento del sistema estudiado cuando se aplique el controlador automático, sin la necesidad de probarlo físicamente. Para nuestro ejemplo, usando el modelo podemos verificar mediante simulaciones numéricas que el oxígeno disuelto se mantendrá en el nivel deseado a pesar de las grandes fluctuaciones diurnas en las concentraciones de contaminantes en el agua residual que se está tratando. Hasta ahora el ejemplo que hemos tratado es el control de oxígeno disuelto, pero en un proceso de tratamiento de agua también es deseable regular o controlar otras variables de interés. Esto en el caso del oxígeno es posible gracias a que se cuenta con sensores confiables (las llamadas sondas de oxígeno 11 En un sensor por software se usa la información que tenemos acerca del proceso, manifestada en su modelo matemático, para estimar variables que no se pueden medir directamente, usando la información adicional que provee una o varias variables que sí se pueden medir en línea. La idea es la siguiente: si el modelo matemático fuera suficientemente bueno y tuviéramos también la información del valor verdadero de todas las variables del proceso en cierto instante de tiempo, podríamos predecir cómo se va a comportar el sistema resolviendo las ecuaciones matemáticas del modelo en tiempo real, o sea al mismo tiempo que ocurren los hechos durante el proceso. Obviamente ni el modelo es perfecto, ni conocemos el valor de todas las variables (claramente de las que no podemos medir). Un estimador de estados predice el comportamiento del proceso corrigiendo en línea el modelo matemático usando la información que le proporciona la comparación entre los valores estimados y los valores medidos de las variables que sí se pueden medir. En otras palabras, como el modelo matemático no es exacto (ni tampoco preciso), se hace una corrección del mismo con una retroalimentación del error de estimación. De esta manera, los estimadores de estado se diseñan para que, conforme pasa el tiempo, las variables estimadas converjan hacia los valores verdaderos de las variables incluso aquellas que no se pueden medir físicamente! Después de esta digresión técnica, que estimamos ha dejado perplejos a los lectores, regresemos a los procesos de tratamiento de aguas. Pues bien, resulta que los modelos matemáticos que describen a estos procesos son complicados, y además como ya se había indicado- no existen sensores en línea para muchas variables de interés. Por lo tanto, el diseño de sensores por software representa un reto muy interesante por investigar. En el LIPATA el diseño de estimadores de estado para biorreactores forma parte de nuestras líneas de investigación. Actualmente estudiamos la estimación de las tasas de biodegradación de compuestos tóxicos en aguas residuales o las tasas de producción de hidrógeno o de polímeros biodegradables a partir de aguas residuales, midiendo el oxígeno disuelto u otras variables que sí pueden ser medidas confiablemente con sensores comerciales, o incluso con algunos que estamos desarrollando como producto de otra línea de investigación. En nuestro grupo el diseño y la prueba analítica (matemática) de los estimadores de estado lo hacen principalmente los investigadores Jaime A. Moreno de la Coordinación de Eléctrica y Computación del Instituto de Ingeniería en Ciudad Universitaria, y Alejandro Vargas del LIPATA en Juriquilla. La prueba de los sensores por software se hace en reactores piloto de laboratorio, y por lo tanto requiere la participación de los demás miembros del grupo de investigación, incluyendo a otros investigadores y especialmente a los alumnos de licenciatura y posgrado. Ahora invitamos al lector a estimar (en el sentido de apreciar) el poder de la estimación. Alejandro Vargas es investigador titular del Instituto de Ingeniería en la Unidad Académica Juriquilla. Su interés se centra en el modelado matemático y el control de procesos de tratamiento de aguas, incluyendo su diseño y aplicación experimental. Jaime Alberto Moreno es investigador titular del Instituto de Ingeniería en Ciudad Universitaria, D.F. Sus líneas de investigación incluyen el diseño de métodos de control robusto y no lineal de sistemas dinámicos, con aplicaciones en procesos bioquímicos y el desarrollo de métodos de diseño observadores no lineales.

12 De la neuro-biología a la neuro-glío-biología Mónica López Hidalgo y Jesús García Colunga A diferencia de la idea Aristotélica de que los pensamientos y las emociones residen en el corazón, hoy en día está claro que es el Sistema Nervioso Central (SNC) -compuesto por el cerebro y la médula espinal- el encargado de estas y otras funciones. A principios del siglo XIX se sostenía que las células que componían al SNC se mantenían unidas y formaban una red continua, una retícula. Esta propuesta explicaba la rápida comunicación de un lugar a otro del cerebro y se le conoció como la teoría reticular. A finales de ese siglo, gracias al desarrollo de nuevas técnicas histológicas y de la microscopía, se impuso una nueva explicación (la teoría neuronal), propuesta por Santiago Ramón y Cajal (España). La teoría neuronal planteaba que las células del SNC se comunicaban por contacto y no por continuidad, y que la neurona era la unidad anatómica y funcional del SNC. Desde entonces y hasta nuestros tiempos, el estudio del SNC (neurociencias) se ha centrado principalmente en el análisis de los cambios que ocurren en las neuronas y la comunicación que existe entre ellas para generar las variadas y complejas funciones del SNC. Además de las neuronas, el SNC (cerebro y médula espinal) contiene células gliales. Estas células fueron observadas desde 1858 por el patólogo Rudolf Virchow, quien las caracterizó como un tipo de pegamento nervioso (la palabra glía proviene del griego γλία que significa pegamento, unión) y cuya función se pensaba que era irrelevante. Desde entonces, y aún cuando son 50 veces más abundantes que las neuronas, los neurocientíficos consideraron a las células gliales como simples aisladores físicos y químicos que ayudaban al mantenimiento de las neuronas. Esta visión ha cambiado drásticamente en las últimas décadas, ya que se ha encontrado que la glía tiene funciones que antes se creían exclusivas de las neuronas. Recuérdese que las neuronas son unidades especializadas en detectar la actividad nerviosa y responder a ella. Para esto, las neuronas establecen un tipo singular de comunicación por contacto llamado sinapsis (del griego σύναψις, que significa enlace). En estos contactos se lleva a cabo la trasmisión del impulso nervioso mediante la liberación de sustancias químicas llamadas neurotransmisores, las cuales al interactuar con proteínas de membrana (receptores) producen cambios en la excitabilidad neuronal, es decir, en la actividad eléctrica de las neuronas (Figura 1). De manera interesante, a finales de los años 70 s, varios grupos empezaron a observar que diferentes tipos de células gliales como los astrocitos, también tienen en su membrana receptores a neurotransmisores (prácticamente los mismos receptores que las neuronas) y canales iónicos. Los astrocitos también responden a los neurotransmisores sólo que con cambios en la concentración de calcio intracelular (un tipo diferente de excitabilidad que el de las neuronas). Además, los astrocitos también liberan sustancias químicas (que por ser liberadas por la glía se les ha dado en llamar gliotransmisores) que pueden interactuar con las neuronas (Figura 1). De esta manera, las neuronas y los astrocitos pueden comunicarse, intercambiando información en ambas direcciones, lo que ha hecho que la brecha funcional entre ambos tipos celulares se haya acortado. En las últimas dos décadas se ha mostrado que los astrocitos, al establecer una comunicación bidireccional con las neuronas, son elementos activos indispensables para la adecuada comunicación neuronal. Por ejemplo, en el hipotálamo (estructura cerebral que regula la ingesta de alimento, la temperatura corporal, el balance de agua y la lactancia, entre otras funciones), los astrocitos modifican la transmisión sináptica a través 12

13 participan los astrocitos es la llamada potenciación de larga duración (LTP, por sus siglas en inglés). De manera muy simple se puede entender a la LTP como un incremento en la transmisión sináptica (acompañada de cambios morfológicos y funcionales) que dura horas e incluso días. Este tipo de plasticidad es considerada por muchos como la base celular y molecular que explica los procesos de aprendizaje y memoria, en los que la región del SNC llamada hipocampo participa de manera muy importante. Fotomicrografía del hipocampo en donde se observa la proporción de astrocitos (verde) en relación con las neuronas (rojo). de la liberación de gliotransmisores como el glutamato y la D-serina. Además, dependiendo de la situación fisiológica del organismo (por ejemplo la lactancia o la deshidratación) ocurren cambios estructurales en los astrocitos, como la cobertura de la sinapsis, y que se manifiestan en modificaciones sobre la transmisión sináptica. Estos cambios y reajustes resultan sorprendentes, ya que hasta hace poco se creía que sólo las neuronas tenían la capacidad de reorganizar sus conexiones, término al que se le conoce como plasticidad sináptica o plasticidad neuronal. La posibilidad de que los astrocitos fueran capaces no solo de modificar la comunicación neuronal, sino que además pudieran responder a diferentes estímulos con un arreglo de sus conexiones, sacudió la visión de los neurocientíficos, no sólo porque son el tipo celular más abundante del SNC, sino porque los astrocitos poseen una característica que es poco común en las neuronas: las proyecciones de los astrocitos se encuentran comunicadas por continuidad y no por contacto. De esta manera forman una red continua (un retículo) que permite una rápida comunicación entre diferentes áreas cerebrales, lo que hace aún mayor las implicaciones de la plasticidad glial en el SNC. Es así como, aunada a la teoría neuronal vigente y a los hallazgos sobre la glía, la teoría reticular surge nuevamente como una explicación sobre el funcionamiento y la organización del SNC. Un tipo de plasticidad neuronal en el que 13 La LTP puede ser inducida experimentalmente con estimulación eléctrica, e incluso con la aplicación de sustancias como la nicotina, la principal sustancia adictiva del tabaco. Cabe mencionar que cuando se fuma un cigarro, en tan sólo seis segundos esta sustancia es capaz de modificar la transmisión sináptica y la plasticidad neuronal. Para sorpresa de muchos, la nicotina por sí misma induce LTP y facilita la memoria y el aprendizaje; de hecho, actualmente es utilizada como un tratamiento para enfermedades como el Alzheimer. Además participa en desórdenes como la esquizofrenia, la ansiedad y la depresión, entre otros. Nuestro laboratorio tradicionalmente se ha interesado en estudiar la función de los receptores de acetilcolina nicotínicos. Estos receptores son activados por la nicotina: de ahí su nombre. Cabe resaltar que los efectos de la nicotina habían sido explicados tomando en cuenta únicamente a las neuronas como posibles blancos de acción. Así, una de nuestras propuestas consiste en que en los procesos del SNC en los que participa la nicotina, no sólo están implicadas las neuronas, sino también los astrocitos. En este sentido, una de nuestras primeras inquietudes fue saber si los astrocitos del hipocampo responden a la nicotina. Lo que encontramos fue que, además de activar receptores nicotínicos, la nicotina bloquea canales de potasio (los canales iónicos más abundantes de las células gliales). Como consecuencia, ambos efectos incrementan la concentración de calcio intracelular del astrocito (su mecanismo de excitabilidad celular). Así, estos resultados planteaban la posibilidad de que los astrocitos pudieran estar participando en la LTP inducida o facilitada por nicotina, así como en la facilitación de la memoria por nicotina. Para explorar estas posibilidades utilizamos, por un lado, rebanadas de cerebro de rata que contenían al hipocampo, y por otro lado, ratas adultas que tenían que realizar una prueba de memoria de largo plazo. En ambos casos bloqueamos farmacológicamente a los astrocitos. De este modo, indujimos LTP y memoria de largo plazo, con y sin la función de los astrocitos. De manera sorprendente, nuestros resultados revelaron que los astrocitos no sólo participan en la LTP inducida por nicotina y en la adquisición de la memoria, sino que más aún, su integridad funcional era indispensable para el establecimiento de la LTP y para que las ratas mejoraran su memoria por la aplicación de nicotina. Sin lugar a dudas los resultados sobre el papel tan importante que tienen los astrocitos, y en general la glía, en el funcionamiento del cerebro, sugieren la necesidad de un cambio en el paradigma de las neurociencias modernas, un cambio de visión en donde la glía, lejos de ser simplemente un pegamento, un aislante, un ayudante de las neuronas, sea considerada más bien como un colaborador con quizá la misma jerarquía que la otorgada actualmente a las neuronas, una revolución ideológica que nos lleve a contemplar al estudio del cerebro, no como parte de la Neuro-Biología, sino con una nueva rama, la Neuro-Glío-Biología. Mónica Lopez Hidalgo concluyó sus estudios de posgrado y es candidato a Doctor. El Dr. Jesús García Colunga es Investigador Titular del Departamento de Neurobiología Celular y Molecular del INB.

14 Y usted... qué opina? Alejandro Vargas L a generación de conocimientos, la transferencia y la aplicación de la tecnología son vías fundamentales para mejorar las condiciones de vida en un país, que posibilitan tener un desarrollo económico que permita una distribución de los ingresos en múltiples sectores de la población. La tecnología es el conjunto de conocimientos, procedimientos y procesos que permiten diseñar y crear bienes y servicios para modificar el medio ambiente y satisfacer necesidades humanas. Si esta modificación se realiza de forma sustentable, es aún mejor en términos del uso de los recursos naturales y por tanto del desarrollo económico. Esta definición es muy amplia y abarca muchas de nuestras actividades científicas que, en último término, están dirigidas al desarrollo de tecnología. El gran problema que tenemos en México es que generalmente los científicos y tecnólogos nos dedicamos sólo a eso: al desarrollo de la tecnología en sus diversas fases, desde la ciencia básica hasta la ciencia aplicada, mas no a su transferencia o aplicación. Un aspecto importante de la transferencia de tecnología es la concesión de una patente, de tal manera que el desarrollo tecnológico pueda ser explotado comercialmente y culmine en la aplicación del mismo. La Organización Mundial de la Propiedad Intelectual ( reporta que en el 2005 Estados Unidos concedió cerca de 144 mil patentes y Japón alrededor de 123 mil, mientras que en México apenas se otorgaron un total de 8,098. Pero eso no es lo más grave: en Japón el 90% de las patentes se concedieron a residentes del país; en México apenas fueron 131 ( tan sólo el 1.62%!). Si contamos las patentes concedidas a mexicanos y en vigor a nivel mundial, en el 2005 sólo había un total de 1,978 (por lo visto los mexicanos patentamos más fuera que dentro de nuestro país). En contraste con lo anterior, el número de publicaciones de mexicanos en revistas indizadas (base de datos ISI) fue, en 2009, de 11,724 (95% en ciencia y tecnología), de las cuales 1,523 correspondieron al área de ingeniería. En 2010 estas cifras aumentaron a 12,056 y 1,570, respectivamente; para el periodo han sido 62,117 artículos indizados y 6,557 de ingeniería. Obviamente no se puede pretender que todas las publicaciones en ingeniería contengan desarrollos patentables, pero volvamos a contrastar la situación de México con Japón. En el 2010 este país oriental produjo 72,344 artículos indizados, un número menor que el número de patentes concedidas en 2005! Huelga decir que Japón es un país desarrollado. La visión de sus gobiernos y la relación ciencia tecnología desarrollo económico, son parte de políticas estructurales diseñadas en la generación de bienes para su comercialización. En países como México, estas políticas, cuando existen, están desarticuladas. Qué está pasando entonces? Las estadísticas de publicaciones científicas o tecnológicas para México son muy buenas, considerando que somos un país en vías de desarrollo. Pero si todo el desarrollo potencial de tecnología se sigue quedando en los artículos, seguiremos eternamente en vías de. Es más, si lo vemos desde otra óptica, estamos desperdiciando el conocimiento generado en el país publicando en revistas de distribución mundial, pues a fin de cuentas lo publicado puede también ser aprovechado por otros. La estrategia de estimular las publicaciones arbitradas está dando resultado, pero no existe una política sólida de fomento a la transferencia de la tecnología. El problema podría deberse a que esto es mucho más complicado que sólo presionar a los investigadores para que publiquen (como se ha venido haciendo desde hace décadas), pues para lo segundo se requiere la participación coordinada del desarrollador (los tecnólogos o científicos), con el implementador (el empresario). Tampoco puede resolverse premiando a aquellos que patenten. No, la solución parece requerir más que presión o premios, o incentivos fiscales o monetarios por parte del gobierno, un cambio cultural y un cambio de paradigmas. Se necesita la participación coordinada de varios actores del estado nacional, que influya tanto en la forma como se hace, se reporta y se evalúa la investigación, como en la cultura empresarial que hasta la fecha no invierte en, ni demanda desarrollo tecnológico nacional. La pregunta es entonces: cómo le hacemos para lograrlo? O usted,.. qué opina? Rodrigo Gutiérrez Landa, Primer egresado de la Licenciatura en Tecnología E l pasado miércoles 27 de abril del presente año en el auditorio del LIPATA, del Instituto de Ingeniería de la UNAM Campus Juriquilla, se realizó la ceremonia de titulación del primer egresado de la Licenciatura en Tecnología del Centro de Física Aplicada y Tecnología Avanzada. Se trata del alumno Rodrigo Gutiérrez Landa quien, aparte de obtener un promedio de 9.6 en la carrera, cumplió con los requisitos para titularse bajo la modalidad Totalidad de 15Nivel ENERO - MARZO 2011 créditos yno. Alto Académico. La Licenciatura en Tecnología nació hace cuatro años como una propuesta novedosa para formar profesionistas capacitados en el desarrollo de proyectos de innovación tecnológica. Para alcanzar este objetivo, el plan de estudios se basa en un enfoque multidisciplinario, en el desarrollo de proyectos de innovación soportados por tutorías y en un constante vínculo con las empresas de la región. Este plan fue aprobado por el Consejo 14 Universitario el 9 de marzo de 2007 y la carrera 14 cuenta ya con su primer egresado.

15 UNIDAD MULTIDISCIPLINARIA DE DOCENCIA E INVESTIGACIÓN FACULTAD DE CIENCIAS, JURIQUILLA 15

16

Sitemap