Cien años de Piazzolla: más allá del tango

Ástor Piazzolla (Mar del Plata, 11 de marzo de 1921 – Buenos Aires, 4 de julio de 1992).

“Tengo una ilusión: que mi obra se escuche en el 2020. Y en el 3000… A veces estoy seguro, porque la música que hago es diferente.” (Astor Piazzolla)

Se cumplen cien años del nacimiento de Astor Pantaleón Piazzolla, “el gran Astor”, y parece que su ilusión va camino de cumplirse: su música sigue plenamente vigente y fascina cada día a millones de melómanos, dentro y fuera de Argentina.

Nació en Mar de Plata un 11 de marzo de 1921, pero pasó buena parte de su infancia en Nueva York, donde su padre le regaló su primer bandoneón. Con apenas 14 años sirvió a Carlos Gardel como guía e intérprete durante su estancia en la ciudad, mientras rodaba El día que me quieras (1935), su penúltima película antes del desgraciado accidente que acabó prematuramente con su vida.

Nadie sabía por entonces que aquel niño, que aparecía como “canillita” (vendedor de periódicos) en el filme, se convertiría en uno de los más grandes compositores argentinos y renovador trascendental de la historia del tango.

Astor Piazzolla con 14 años, junto a Carlos Gardel y otros actores en la película El Día que me Quieras. Wikimedia Commons

Maestros de lujo

En 1937, el joven Piazzolla se instaló por su cuenta, aunque ayudado por su padre, en Buenos Aires, donde inició estudios de composición con Alberto Ginastera, piano con Raúl Spivak y dirección con Hermann Scherchen.

Mientras tanto, comenzó a formar parte de orquestas típicas como bandoneonista: en aquel momento Aníbal Troilo era el referente en el tango bonaerense. En sus Memorias –dictadas a Natalio Gorín en 1990– Piazzolla confesaba:

“Tuve dos grandes maestros: Nadia Boulanger y Alberto Ginastera. El tercero lo encontré en la fría pieza de una pensión, en los cabarets de los años cuarenta. Ese tercer maestro se llama Buenos Aires”.

En 1954 obtuvo una beca que le llevó a París, donde estudió composición con Nadia Boulanger. Fue ella quien le animó a hacer del tango de raigambre popular el centro gravitatorio de su música. Permaneció durante algún tiempo en la capital francesa, donde compuso y grabó una serie de tangos para bandoneón, piano y cuerdas con músicos locales.

¿Es tango?

Piazzolla nunca fue del todo un músico académico, ni un músico popular. Ambas vertientes son simultáneas e inseparables a lo largo de su obra, siendo el hilo conductor la propia estética del compositor, marcada por la tradición del tango y su renovación a través diversas influencias: desde el jazz y la música judía hasta las técnicas de la música académica, muy especialmente el dominio de la escritura contrapuntística.

Todavía hoy constituye un tema de discusión para los porteños (junto con el eterno contencioso futbolístico entre seguidores de River Plate y Boca Juniors) el dirimir si la música de Piazzolla es o no tango. Las raíces tangueras de su obra son innegables, como lo es también que los “tangos” de Piazzolla no se pueden bailar, al menos no como tangos tradicionales.

El compositor no se preocupaba de los bailarines, escribía pasajes que complicaban y ocultaban la marcación de los cuatro tiempos del tango. Sin embargo, su música está actualmente presente en los escenarios del mundo entero, como base para coreografías que concilian la vanguardia y la experimentación con la búsqueda de la autenticidad y la visceralidad del ser porteño.

Innovación y experimentación

La evolución estilística de Piazzolla estuvo, en buena medida, ligada a la creación de sus conjuntos y a esa tensión entre su toma de postura frente a la tradición del tango y sus aspiraciones de innovación y experimentación.

A su regreso a la capital argentina fundó el Octeto Buenos Aires, con el que inició su revolucionaria transformación del tango, aunque la experiencia duró tan solo tres años.

Astor Piazzolla interpreta Adios Nonino con la Sinfónica Cologne Radio Orchestra de Alemania.

Sus conjuntos: quintetos, octetos, nonetos

Tras una breve estancia en Nueva York, donde compuso su célebre Adiós Nonino (1959) al conocer la noticia de la muerte de su padre, Piazzolla fundó en Buenos Aires el Quinteto Nuevo Tango, conjunto con el que interpretaría buena parte de su producción, en adelante totalmente alejada de la concepción bailable del género.

En 1968, estrenó la operita María de Buenos Aires, con libreto de Horacio Ferrer, protagonizada por Amelita Baltar y Héctor de Rosas. Entre 1971 y 1972 trabajó con un nuevo ensemble, el noneto Conjunto 9, resultante de añadir al quinteto original (bandoneón, contrabajo, guitarra eléctrica, piano y violín) un segundo violín, una viola, un violonchelo y una batería. La escritura para el noneto era de índole camerística, aplicando procedimientos melódicos y rítmicos del tango a prácticas de escritura propias de la música académica.

En 1974, ante la difícil situación política en Argentina, se trasladó a Italia y fundó el Octeto Electrónico. Comienza así un intenso periodo de giras por Europa, América y Asia, primero con el Octeto y, a partir de 1978, con su Quinteto reorganizado.

Astor Piazzolla interpreta Libertango en el programa Mosaïque de la Radio Télévision Suisse el 18 de mayo de 1977.

En los años ochenta destaca la profusa utilización de técnicas improvisatorias que luego llegarían a ser una práctica habitual en su conjunto.

La salud de Piazzolla se deterioraba, por lo que la adición de un nuevo bandoneonista en 1989 convirtió al Quinteto en Sexteto. Poco después, una trombosis cerebral le dejó postrado hasta su muerte en 1992, haciendo cierta la letra de la preciosa Balada para mi muerte que compuso junto a Horacio Ferrer:

“Moriré en Buenos Aires,

será de madrugada

Que es la hora en que mueren

los que saben morir”.

The Conversation

Joaquín López González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

The Conversation. Rigor académico, oficio periodístico

Un año de pandemia: dos países que lo hicieron bien y tres que lo hicieron mal

El 11 de marzo de 2020, la Organización Mundial de la Salud declaró que la emergencia de salud pública por la covid-19 se había elevado a la categoría de pandemia: aquel día 114 países estaban afectados, había 121 500 casos confirmados y más de 4 000 personas habían sucumbido al virus.

Un año después, se han registrado 115 millones de casos confirmados en todo el mundo y más de 2,5 millones de fallecimientos.

“Pandemia no es una palabra que debamos usar a la ligera”, manifestó el director general de la OMS, Tedros Adhanom Ghebreyesus aquel marzo de 2020. Pero en el año que ha transcurrido desde entonces, el destino de muchos países ha dependido de cómo los líderes han comunicado la crisis a sus ciudadanos.

El impacto de la pandemia no tiene precedentes y todos los gobiernos afrontaron desafíos para lidiar con una amenaza muy grave pero altamente impredecible para la vida de sus ciudadanos. Y algunos gobiernos respondieron mejor que otros.

Mis colegas y yo llevamos a cabo recientemente un estudio comparativo sobre cómo 27 países respondieron a la primera ola de covid-19, y cómo comunicaron esa respuesta a sus ciudadanos.

Invitamos a expertos nacionales a analizar el estilo de comunicación de sus respectivos gobiernos, el flujo de información sobre el coronavirus y las acciones adoptadas por la sociedad civil, mapeando estas respuestas en el número de casos y muertes de los países en cuestión. Nuestro trabajo revela respuestas distintas que sugieren que el manejo de la pandemia por parte de cada gobierno ha estado estrechamente relacionado con patrones de liderazgo existentes previamente.

Tras la noticia de la propagación de la covid-19 a través de las fronteras internacionales, las medidas preventivas nacionales tendrían que haber sido explicadas con sumo cuidado. La OMS demostró estar mal preparada, proporcionó consejos equívocos y erróneos con respecto a los viajes internacionales, incluso desde la provincia de Hubei, y se mostró dubitativa sobre la eficacia de usar mascarillas. Ante esta situación, buena parte de lo que ocurrió después se redujo a cómo los líderes de cada país comunicaron a sus ciudadanos los riesgos a los que se enfrentaban.

Los expertos en manejo de crisis y los psicólogos sociales enfatizan la importancia de la claridad y la empatía en la comunicación durante una emergencia de salud pública.

Entonces, ¿quién lo hizo bien y quién falló?

Corea del Sur y Ghana

Encontramos dos ejemplos importantes de este estilo de comunicación que funcionaron bien en la práctica. Corea del Sur evitó los confinamientos debido a que comunicó claramente la amenaza de covid-19 ya en enero, alentó el uso de mascarillas (que ya eran de uso habitual en respuesta a una epidemia anterior de SARS) y lanzó rápidamente una aplicación de rastreo de contactos.

Cada cambio en el nivel de alerta oficial, acompañado de nuevos consejos con respecto al contacto social, fue comunicado cuidadosamente por Jung Eun-Kyung, directora del Centro para el Control de Enfermedades del país, quien utilizó los cambios en su propia vida para demostrar cómo las nuevas orientaciones deberían funcionar en la práctica.

La transparencia de este enfoque también se reflejó en el estilo de comunicación del presidente de Ghana, Nana Addo Dankwa Akufo-Addo.

Akufo-Addo asumió la responsabilidad de la gestión de coronavirus y explicó cuidadosamente cada medida requerida, siendo honesto sobre los desafíos que encaraba Ghana. “Sabemos cómo reflotar la economía. Lo que no sabemos es cómo devolver la vida a las personas ”, señaló el presidente. Sus lecciones de empatía le valieron elogios dentro de su país y también en todo el mundo.

Brasil, Reino Unido e India

Corea del Sur y Ghana adoptaron un tono coherente destacando los riesgos de la nueva pandemia y cómo podría mitigarse. En cambio, los países a los que les fue peor alentaron la complacencia y dieron mensajes inconsistentes sobre la amenaza de la covid-19.

En marzo de 2020, solo tres semanas antes de cerrar el país y contagiarse de covid-19, el primer ministro del Reino Unido, Boris Johnson, restó importancia a la amenaza y dijo que había estado estrechando la mano de personas infectadas, en contra de las recomendaciones de sus expertos asesores. Hoy, el Reino Unido tiene una de las tasas de mortalidad per cápita por covid-19 más altas del mundo.

Para evitar un confinamiento inicial completo, el presidente brasileño Jair Bolsonaro, quien también contrajo la enfermedad, pidió a los brasileños que continuaran haciendo vida normal, desafiando la orientación de los expertos y polarizando las opiniones de forma partidista. Tales prácticas llevaron a los brasileños a desconfiar de la información oficial y a difundir información errónea, mientras que la adhesión a las medidas de contención se convirtió en una cuestión más ideológica que de salud pública.

Mientras tanto, el primer ministro indio, Narendra Modi, anunció un cierre rápido con solo cuatro horas de anticipación, lo que provocó una crisis migratoria interna, con trabajadores pobres que abandonaron las ciudades para recorrer cientos o miles de kilómetros hasta llegar a sus hogares en el campo. Comprensiblemente, los trabajadores priorizaron su temor a quedarse sin hogar y a morir de hambre sobre el riesgo de propagación del covid-19 por el país.

Ninguna de estas respuestas tuvo en cuenta el impacto que el coronavirus tendría en la sociedad, ni que la credibilidad se gana con la coherencia. Los malos resultados en cada caso son un reflejo parcial de estos errores de liderazgo.

¿Mala suerte o mala gestión?

Por supuesto, el desarrollo de la pandemia no se debió únicamente a la buena o mala comunicación de los líderes. Los sistemas de salud y la demografía también pueden haber tenido un papel importante, y los países más afectados no solo tenían debilidades estratégicas, sino que también son centros de transporte globales y destinos populares. Es el caso de Londres, Nueva York o París. En retrospectiva, hubiera sido prudente cerrar las fronteras, a pesar del consejo contrario de la OMS.

Aún así, es evidente que los líderes que adoptaron una guía clara, temprana, dirigida por expertos, coherente y empática obtuvieron buenos resultados y pudieron mitigar los peores efectos del virus.

Por otro lado, quienes politizaron el virus, exhibieron un optimismo desenfrenado o tomaron decisiones precipitadas siguen al frente de algunos de los países con más casos y muertes por covid-19.

The Conversation

Darren Lilleker no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

The Conversation. Rigor académico, oficio periodístico

La glía: una pieza más en el puzle de la bipolaridad y la esquizofrenia

Células gliales (principalmente astrocitos) teñidas en un cerebro de rata. Wikimedia Commons / ArizonaLifeScience

Hoy buena parte de la investigación de la bipolaridad y la esquizofrenia ya no se centra en las neuronas, sino en la glía. ¿Qué es eso? Las “neuroglias”, “células gliales” o simplemente “glías” son células que se encuentran en nuestro tejido nervioso. No solo de nuestro cerebro: también están en los nervios periféricos que recorren nuestro cuerpo.

A lo largo de la historia todas las células de nuestro cerebro que no eran catalogables como neuronas (es decir, que carecen de la capacidad de enviar impulsos eléctricos, que no son eléctricamente excitables) se clasificaban como glía. No son pocas las células que caen dentro de esa etiqueta. Si consideramos que hay unos cien billones de neuronas en nuestro cerebro, hay diez veces más de células gliales. Casi nada. En general sabemos que su porcentaje, la cantidad de glía por neurona, aumenta de forma exponencial según la complejidad del organismo. Esto señala que es un elemento muy importante.

Clasificar a todas esas células como glía, así sin más, convirtió a esta palabra en un término genérico y vago. Englobaba a demasiados tipos de grupos de células muy diferentes, y de muy diversos orígenes. Esto no era debido a la pereza de los investigadores a la hora de buscar palabras, sino a la complejidad histórica que suponía descubrir y estudiar la glía. Con el tiempo se hicieron necesarias nuevas clasificaciones. Algunas se basaban en su tamaño: la macroglía –como los astrocitos y oligodendrocitos– y la microglía. También en su localización: sistema nervioso central o sistema nervioso periférico.

La aristocracia necesita ayuda

Ya hemos visto qué son las glías y que no son pocas. Pero, ¿por qué ha cobrado importancia su investigación? ¿Acaso las neuronas no son las células privilegiadas del cerebro, las más listas de la clase, las más importantes y hermosas, las “mariposas del alma” como las definía el gran Ramón y Cajal?

Pues sí, no podemos negar que las neuronas siempre serán la eléctrica aristocracia de las células cerebrales, pero tampoco que necesitan más ayuda en su día a día de la que se pensaba.

Antiguamente se suponía que el principal papel de la glía era la simple sujeción de la neurona, el de unir y crear la estructura interna del cerebro. Si el cerebro fuera un árbol de Navidad, las glías serían el árbol y las ramas, y las neuronas serían los adornos. No en vano, la palabra glía viene del griego λοία, que se traduce como “unión o pegamento”. Neuroglia vendría a significar el “pegamento de las neuronas”.

A día de hoy cada vez se hace más patente que la función de la microglia no es la de únicamente sostener a las neuronas y ser el pegamento cerebral. Son células “ayudantes” que pueden influir de forma importante la maduración y funcionamiento habitual de las neuronas.

En este sentido, podemos simplificar su relación en un ejemplo en el que vemos a la preciada neurona como una princesita y a las glía como a su cohorte de sirvientas que siempre la acompañan y que son las encargadas de cuidarla, alimentarla y protegerla. Les toca hacer grandes labores para el bienestar y facilitar la agenda de obligaciones de su señora (y poco reconocidas hasta ahora).

Hoy sabemos que cada una de esas sirvientas-glías tienen funciones muy especializadas. Podemos ver a la microglía tanto como “guardianas” que velan por la seguridad de sus señoras, como “limpiadoras” de restos (ya que son macrófagos especializados del cerebro que, entre otras tareas, van a detectar infecciones y tomar medidas inmunitarias).

Podemos ver a los astrocitos con varias funciones, como la de “cocineros” que se encargan de dar de comer a las neuronas. También son “secretarios” que ayudan a la neurona a enviar sus señales.

¿De quién es la ‘culpa’ cuando el sistema falla?

La pregunta que surge es algo evidente: cuando hay un funcionamiento no del todo adecuado en la función neural, ¿es realmente la neurona la que falla o es que sus ayudantes no hacen correctamente su trabajo? ¿O fallan ambas?

La gran mayoría de las investigaciones tienden a señalar que la glía juega su papel en la actividad de las neuronas en bipolaridad y en esquizofrenia. La respuesta exacta es más difícil de lo que parece. Ya hemos hablado de la gran cantidad de glías que hay, de sus subtipos, de su localización, de sus diferentes funciones. No solo eso, también hemos de ver otros aspectos vinculados, como la edad y el desarrollo del sujeto.

Todo ello hace que sea muy complejo obtener respuestas rotundas con tantos condicionantes. Varios estudios han encontrado disminuciones del número y cantidad de células gliales en personas que han sufrido episodios afectivos graves (principalmente en la corteza prefrontal). Tampoco se puede descartar que la activación de las células gliales influya enormemente en la síntesis de neurotransmisores tan importantes como la serotonina y en la misma plasticidad neuronal (que sería la capacidad del cerebro de modificar su estructura y función).

Por desgracia, todavía queda un largo camino hasta poder llegar a conclusiones firmes. Aun así, parece más que evidente que el conocimiento de la glía ayudará enormemente a descubrir y establecer nuevas relaciones entre cerebro y comportamiento, y que podrá abrir las puertas a nuevas investigaciones y formas de tratamiento de afecciones psicóticas y afectivas.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

The Conversation. Rigor académico, oficio periodístico

El papel de los bosques como sumideros de carbono

Reforestación en el Valle de Miera (Cantabria, España).
Shutterstock / Juan Carlos Munoz

Los sistemas forestales tienen la capacidad de captar el CO₂ de la atmósfera gracias a la energía del sol. Las plantas transforman las moléculas inorgánicas en moléculas orgánicas que usan en la construcción de sus estructuras vitales: flores, frutos, ramas, troncos, raíces, hojas, etc.

Estos productos elaborados serán consumidos por los animales herbívoros, que los integran así en eslabones de las cadenas tróficas de los ecosistemas terrestres. En ese mismo proceso, las plantas generan un subproducto vital: el oxígeno.

Los bosques, almacenes de CO₂

Al respirar, los seres vivos emitimos CO₂ como subproducto metabólico de nuestro funcionamiento vital. Y al morirnos, nuestros cuerpos se descomponen en el suelo gracias a bacterias aeróbicas que transforman las moléculas orgánicas en CO₂ (que es emitido a la atmósfera) y en otras moléculas que contienen carbono y que se incorporan a uno de los reservorios más importantes del ciclo del carbono, el suelo.

Así, los bosques retiran dióxido de carbono de la atmósfera e incorporan carbono a su biomasa. Al menos temporalmente, mientras los árboles (y arbustos, etc.) están vivos.

Según el Quinto Informe de Evaluación del IPCC, se estima que a nivel global la cantidad de carbono presente en la biomasa viva de la vegetación es de entre 450 y 650 gigatoneladas. Aparte del carbono retenido en la vegetación, los suelos de los bosques son capaces de almacenar entre 1 500 y 2 400 Gt.

Cuando un árbol se corta, y su madera es utilizada en la fabricación de muebles, elementos constructivos u otros, el carbono permanece retenido fuera de la atmósfera durante la vida útil del producto. Por el contrario, cuando un árbol se quema en el bosque, el carbono almacenado es devuelto a la atmósfera de manera casi inmediata.

Los sistemas forestales fijan carbono tanto en la biomasa viva como en el suelo. Dehesa de encina en San Sebastián de los Reyes, Madrid. Author provided

Mitigadores del cambio climático

Sin embargo, no siempre hay un balance positivo entre entradas y salidas de carbono en los ecosistemas terrestres. El uso de la tierra, incluida la agricultura y los bosques, representa aproximadamente el 10 % de las emisiones globales de CO₂, y casi el 25 % de todos los gases de efecto invernadero como el CH₄ y el N₂O. Se estima que la deforestación es la principal fuente de gases de efecto invernadero en muchos países tropicales.

Al mismo tiempo, aproximadamente un tercio de las emisiones de origen humano de CO₂ son absorbidas por los ecosistemas terrestres, principalmente por los bosques. Los sumideros forestales son importantes para la mitigación del cambio climático y en latitudes templadas o boreales los sistemas forestales se comportan como sumideros netos.

La figura 1 muestra que el potencial de mitigación se centra, por un lado, en la reducción de las emisiones de origen fósil y de las debidas al cambio de uso de suelo y, por otro lado, en el fomento de los sumideros terrestres.

Figura 1. Componentes combinados del presupuesto global de carbono en función del tiempo. Friedlingstein, P., Jones, M., O’sullivan, M., Andrew, R., Hauck, J., Peters, G., … & DBakker, O. (2019). Global carbon budget 2019. Earth System Science Data, 11(4), 1783-1838., CC BY

La importancia de la gestión forestal

El papel que desempeña el uso de la tierra, sus cambios y la selvicultura (UTCUTS o bien LULUCF, por sus siglas en inglés) como fuente o sumidero de gases de efecto invernadero convierte al sector forestal en un actor clave con un gran potencial de mitigación. En consecuencia, se hace indispensable conocer cuánto carbono se almacena en la vegetación, así como los flujos de este elemento que se crean desde y hacia ella.

La contabilización de las emisiones y absorciones de CO₂ de los diferentes sectores se fue estableciendo en las sucesivas conferencias de las Partes tras la aprobación del Protocolo de Kioto. Incluir el uso de la tierra en el proceso de la Convención Marco de Naciones Unidas sobre Cambio Climático ha sido largo y complejo.

Para los bosques, las incertidumbres asociadas a las estimaciones de los gases de efecto invernadero que absorbían o emitían y las –en muchas ocasiones espúreas– cuestiones metodológicas han supuesto dificultades para alcanzar compromisos y lo que es peor, han implicado una inacción de coste insospechado.

Uno de los aspectos más polémicos ha sido el papel que la gestión forestal desempeña en el aumento de la capacidad del bosque para fijar carbono, asumiendo que la única manera de incrementar el papel mitigador de los bosques es aumentando su superficie. Esta situación viene propiciada principalmente por dos motivos:

  • Por la preocupación climática de que la gestión forestal haga que los bosques que ahora son sumideros pasen a ser emisores de gases de efecto invernadero.
La gestión forestal garantiza la persistencia del bosque y su capacidad como sumidero. Pinar de Valsaín, Segovia. Author provided
  • Por la preocupación de las organizaciones ambientales que ven en estas prácticas también un riesgo para la biodiversidad.

Ambas preocupaciones son perfectamente entendibles, pero también solventables mediante la planificación, aplicación y certificación de sistemas de gestión forestal sostenible, que garanticen la compatibilidad entre la persistencia del bosque, el aumento de su capacidad de fijación de carbono, y el resto de usos.

¿Cuántas emisiones absorben los bosques?

Las actividades relacionadas con LULUCF (recordemos: el papel del uso de la tierra, sus cambios y la selvicultura), donde se enmarcan los bosques, no se abordaron definitivamente hasta la Conferencia de las Partes de 2001 (COP7) en la que se aprobaron los acuerdos de Marrakech. En ellos se fijaron las definiciones, modalidades, normas y directrices relativas a las actividades LULUCF recogidas en el artículo 3 del Protocolo de Kioto.

España informa de sus emisiones de gases de efecto invernadero a la Secretaría de la Convención Marco de Naciones Unidas sobre Cambio Climático. Además, aporta información adicional para cumplir los compromisos asumidos conforme al Protocolo de Kioto, cuyo segundo periodo de aplicación finalizó en 2020.

La diferencia fundamental entre ambos tipos de informes es que el primero tiene un criterio basado en la tierra (asigna categorías de uso de la tierra a toda la superficie dentro del país) y el segundo tiene un criterio basado en las actividades humanas.

El último inventario nacional de gases de efecto invernadero recoge las cifras para el año 2018. El valor neto es muy aproximado (ver tabla 1), ya que España considera toda la superficie forestal bajo gestión regulada, cuando en realidad solo el 18,5 % de la superficie forestal española dispone de proyectos de ordenación forestal que regulan y controlan su aprovechamiento de manera sostenible.

Tabla 1. Absorciones netas del sector LULUCF en España bajo el criterio de la CMNUCC y el Protocolo de Kioto. Inventario nacional de emisiones de gases de efecto invernadero 1990 – 2018 (edición 2020)

Estudios detallados del Centro de Investigación Forestal del Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (CIFOR-INIA) estiman una fijación neta anual en terreno forestal en España de 116 Mt CO₂eq (megatoneladas de CO₂ equivalente), de los cuales 94 Mt CO₂eq se atribuyen a la superficie forestal arbolada y 22 Mt CO₂eq a formaciones de arbustos y matorrales de talla media-alta.

La madera mantiene el carbono fijado a lo largo del ciclo de vida de sus productos. Author provided

Las masas forestales en el cómputo estatal de CO₂

En la UE, la primera vinculación entre las políticas climáticas y los stocks de carbono forestal se produjo tras el Acuerdo de París. Para cumplir los compromisos, el Parlamento y el Consejo europeos adoptaron el Reglamento 2018/841 sobre la inclusión de las emisiones y absorciones del sector LULUCF para reducir las emisiones de gases de efecto invernadero para el período de 2021 a 2030, modificando el reglamento anterior de 2013. Se espera una nueva revisión de este reglamento para 2021 conforme al plan de objetivos climáticos para 2030 que propone actualmente la Comisión.

Hay que destacar que el sector LULUCF en España es el único con efecto sumidero neto. Sus absorciones ayudan a compensar el 11,4 % de las emisiones de otros sectores, tanto los sujetos al comercio de derechos de emisión (industria y generación eléctrica), como los sectores difusos (como el transporte, residencial, agrícola y ganadero, y gestión de residuos).

Tabla 2. Distribución de emisiones del 2018 (ktCO₂-eq). Inventario nacional de emisiones de gases de efecto invernadero 1990 – 2018 (edición 2020), Author provided

Bajo el reglamento actual, se consideran dentro de la contabilidad del sector LULUCF las absorciones y emisiones debidas a tierras forestadas, las tierras deforestadas, los cultivos gestionados, los pastos gestionados y la tierra forestal gestionada.

En la categorías de la tierra forestal gestionada, para poder diferenciar las absorciones derivadas de la gestión forestal de las debidas al crecimiento natural de los bosques, el reglamento establece un nivel forestal de referencia que debe proponer cada país dentro de su Plan de Contabilidad Forestal Nacional. Solo podrán contabilizarse las absorciones que sobrepasen este nivel.

Estas absorciones se utilizarán para cumplir con el compromiso de que las emisiones del conjunto del sector LULUCF no superen sus absorciones (norma de deuda cero). Cumplido este requisito, las absorciones sobrantes debidas al sector podrían utilizarse para compensar las emisiones del resto de sectores difusos, hasta un máximo de 29,1 Mt CO₂ eq para todo el período 2021-2030.

Analizando el sistema de contabilidad actual, observamos que se favorece la utilización de las absorciones asociadas a las repoblaciones, mientras que se relegan a un segundo plano las absorciones originadas por las masas forestales existentes y consideradas bajo gestión. En este punto, es necesario volver a resaltar la importancia de la gestión forestal y la necesidad de contar con instrumentos adecuados que garanticen su aplicación y seguimiento.

Lo cierto es que no cuadran las cifras. Según estudios del Joint Research Centre de la Comisión Europea, hay una discrepancia a nivel global de unos 4 Gt de CO₂ anuales en las emisiones antropogénicas netas del uso de la tierra entre los modelos globales del V Informe de Evaluación del IPCC y los datos agregados de los inventarios nacionales de gases de efecto invernadero. La mayor parte de esta diferencia es atribuible a las superficies forestales consideradas bajo gestión.

A pesar de todo, el planteamiento general tiene sentido y es coherente con las líneas adoptadas desde Europa para seguir fomentando la reducción de emisiones en todos los sectores.

Ahora bien, no se puede caer en un triunfalismo simplista que asuma que las emisiones antropogénicas pueden ser compensadas por los sumideros forestales, desincentivando así cualquier esfuerzo por atacar la raíz del problema: el uso masivo de combustibles fósiles como fuentes de energía y el incesante cambio de uso del suelo.

Todo ello reconociendo la necesidad de implementar políticas que apoyen una gestión forestal sostenible a futuro. Y por futuro hay que reconocer horizontes más allá del año 2050 que permitan articular los amplios plazos de gestión de los sistemas forestales.


Este artículo ha sido escrito en colaboración con Sergio de la Cruz, director técnico del Foro de Bosques y Cambio Climático.


Esta es la segunda entrega de una serie de artículos centrada en los bosques, su importante papel como sumideros de carbono y su relación con el cambio climático.


The Conversation

Agustín Rubio Sánchez es miembro de la Sociedad Española de Ciencias Forestales, la Sociedad Española de la Ciencia del Suelo, la Asociación Española de Ecología Terrestre y del Foro de Bosques y Cambio Climático.

Rafael Calama Sainz es miembro de la Sociedad Española de Ciencias Forestales, colegiado en el Colegio de Ingenieros de Montes y vocal del Foro de Bosques y Cambio Climático

The Conversation. Rigor académico, oficio periodístico

Cómo teletrabajar sin perder la salud en el intento

Shutterstock / del_selenio

No cabe duda de que la situación generada por la covid-19 nos ha hecho repensar muchos aspectos, algunos de forma intencional y otros, desafortunadamente, de manera forzada. Entre ellos, uno de los que mayor impacto ha tenido en nuestro día a día ha sido la obligación de teletrabajar.

Antes de que la pandemia irrumpiera en nuestras vidas, el teletrabajo era una especie de situación con mucho potencial para la conciliación familiar o determinadas condiciones relacionadas con el estado de salud.

Pero lo cierto es que nuestra manera de entenderlo era más ideal que concreta, puesto que su implantación en España era minoritaria. Por eso, con la nueva crisis, la situación ha tenido que revertirse a pasos forzados para pasar a ser una realidad con cifras impensables hace tan solo un año.

La falta de preparación

La rapidez de este cambio ha hecho que en muchos casos no tengamos adaptada nuestra forma de trabajo en casa. Hemos tenido que lidiar con muchas limitaciones que no teníamos en cuenta en nuestras conversaciones informales sobre el tema.

Por ejemplo, ¿cuál sería nuestra mesa de trabajo? ¿la misma que en la que comemos?, ¿la iluminación tenue es suficiente para estar tanto tiempo delante de una pantalla?, ¿cómo puedo postergar las demandas de las personas que conviven conmigo?, ¿alguna vez había tenido que lidiar con tantas posibilidades de procrastinar?

Todo lo anterior hay que trasladarlo a un nuevo lugar de trabajo en el que los recursos son limitados y el entorno no está adaptado. ¿Significa lo expuesto que haya que resignarse a un peor entorno de trabajo?

La respuesta es no. Si una cosa nos ha enseñado la historia evolutiva de nuestra especie es que la capacidad de adaptación está en lo más profundo de nuestra biología.

Por tanto, vamos a intentar exponer una serie de aspectos a tener en cuenta para adaptar nuestro trabajo a una condiciones que a priori parecen limitadas. Sin embargo, estas pueden ser resignificadas en una adaptación a circunstancias en muchos casos desfavorables, para lo cual estamos más que preparados.

¿Por qué vamos a hablar de adaptación y no de resignación? Especialmente porque la adaptación de puestos de trabajo tiene una larga tradición dentro de la psicología y otras disciplinas. Concretamente de la ergonomía. Su larga historia investigadora revela unos resultados muy útiles para afrontar nuestra adaptación, forzada, a nuestro nuevo lugar de trabajo.

Claves para teletrabajar correctamente

En primer lugar, deberíamos hacer un análisis de nuestro puesto de trabajo. Es decir, qué necesitamos para realizar nuestras tareas, tanto en términos de equipo, como de condiciones ambientales y demandas personales.

Tenemos que tener en cuenta que lejos de ser inocuo, el teletrabajo también tiene sus riesgos. Así lo explicó la propia Organización Mundial del Trabajo en una reciente publicación, especialmente para el teletrabajo que se desarrolla a tiempo completo:

  • El tecnoestrés, aquel derivado del abuso de las nuevas tecnologías, así cómo la adicción a la tecnología. Estos aspectos aumentan la fatiga psicológica, pueden derivar en una mayor irritabilidad y una menor capacidad de desconexión y, por tanto, de beneficiarse de un descanso adecuado.

  • El consumo de alcohol y drogas recreativas y fármacos. Teniendo en cuenta que están más a nuestro alcance, el abuso de estos puede llevar a respuestas emocionales negativas. Además, podrían deteriorar la convivencia (aumento de discusiones, aumento de la tensión emocional en la convivencia, violencia, etc.).

  • El sedentarismo prolongado en el tiempo y permanecer en la misma posición durante largos periodos pueden dar lugar a problemas de salud . Por ejemplo, fatiga visual, enfermedades cardiacas y musculo-esqueléticas, sobrepeso y obesidad. El mobiliario no adaptado de nuestros hogares puede agravar la situación.

  • El aislamiento prolongado puede desencadenar sentimientos de exclusión y agotamiento.

  • El uso de tecnología anticuada con velocidades menores a las requeridas en la actualidad pued generar irritabilidad y frustración.

  • Existe un riesgo de agravamiento de conflictos entre trabajo y vida privada. También en la gestión de los límites entre el tiempo dedicado al trabajo y a los asuntos personales (incluyendo el propio descanso y la desconexión del trabajo). Esto se hace más evidente en personas con hijos o que conviven con personas con necesidad de apoyo o supervisión.

Recomendaciones para no perder la salud teletrabajando

Lo anterior nos debería llevar a una reflexión sobre si estamos desconectando de forma efectiva de nuestro trabajo. Igualmente tenemos que plantearnos si está afectando de alguna manera a nuestra salud y vida personal.

Una vez hayamos reflexionado, habría que plantearse ciertas cuestiones, tanto con nuestros empleadores como con nosotros mismos:

  • Establecer unos objetivos de trabajo claros y adaptar el horario a la consecución de estos objetivos. Es decir, flexibilizar la jornada laboral para adaptarla mejor a la realidad del trabajador.

  • Fijar descansos y permisos para desconectar del trabajo en momentos específicos o en respuesta a las necesidades del trabajador.

  • Limitar la disponibilidad al horario establecido y, si es el caso, delimitar bien la funciones de cada trabajador.

  • Tener en cuenta a aquellos trabajadores con responsabilidades de cuidado, las cuales pueden dar lugar a imprevistos que pueden retrasar la realización de algunas tareas asignadas.

The Conversation

Jorge Marredo Rosa no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

The Conversation. Rigor académico, oficio periodístico

Erradicar la pobreza requiere capacidad, voluntad y la mayor movilización de la historia

Campo de refugiados de Atmeh, en Idlib, Siria, en 2013. Shutterstock / John Wreford

El desarrollo social y económico, desde mediados del pasado siglo, se ha ido consolidando como el emprendimiento multidisciplinar más ambicioso que se ha impuesto la humanidad a sí misma, ya que tiene por fin la erradicación de la pobreza, en todas sus dimensiones, y el avance hacia un mundo próspero, justo, sostenible y pacífico para todos.

Esta afirmación inicial parece una evocación poética, mística, metafórica; sin embargo, constituye un enunciado descriptivo del significado de un campo de acción y de estudio que no puede condensarse en una sola disciplina.

Esta esfera de empeño, que tras 70 años ha traído múltiples mejoras al mundo pero que no ha logrado sus fines –a pesar del ingente número de recursos humanos y financieros dedicados a la tarea–, vuelve a ser vital, puesto que la pandemia amenaza, según los cálculos de la misma ONU, con un resurgimiento de la pobreza extrema en zonas donde ya había desaparecido.

El recientemente fallecido Dr. Farzam Arbab, bahaísta de origen iraní pero formado en física de partículas en Estados Unidos, dedicó gran parte de su vida en Colombia, a través de la Fundación para la Aplicación y Enseñanza de las Ciencias que instituyó, tanto al empoderamiento de los campesinos y de la gente común para hacerse cargo de su desarrollo como al pensamiento del desarrollo como área interdisciplinar.

Con motivo del lanzamiento de un documental titulado Labradores de esperanza, que pretende honrar su legado, este artículo explora brevemente algunas de las que pueden ser consideradas sus principales contribuciones y que parecen ser cruciales para avanzar inexorablemente hacia el cumplimiento de los Objetivos de Desarrollo Sostenible.

Un marco que guíe el aprendizaje, el discurso y la acción

El mundo del desarrollo, desde sus orígenes, a fin de dotar de coherencia y rigor a sus propuestas, se fundamentó, en primer lugar, en teorías descriptivas de cómo se produce el desarrollo —modernización, dependencia, sistemas mundiales— que también prescribían las políticas para lograrlo y, en segundo, en ideologías totalizantes que aspiraban a transformar integralmente la vida política, económica y social. Los científicos sociales también buscaban modelos rigurosos.

El Dr. Arbab, consciente de la necesidad de aprender sistemáticamente de la acción, por un lado, de recurrir a la ciencia, por el otro, y de no caer presos de modelos cuantitativos que parecen precisos, pero que en realidad esconden rigidez, planteó la necesidad de que los actores del desarrollo operaran bajo un marco conceptual evolutivo, donde los enfoques y métodos, convicciones, valores y principios que resultasen más efectivos en la práctica pudieran acumularse y orientar a todos los protagonistas de esta empresa mundial con anclaje local.

La generación del conocimiento, eje del desarrollo

Un elemento fundamental del marco conceptual reside en la noción de que la generación de conocimiento –así como su aprendizaje, aplicación y difusión– ha de ser el principio motriz del desarrollo.

En otras palabras, se debe reemplazar a la economía como proceso central de la existencia social por la generación de conocimiento y el aprendizaje acerca del desarrollo. De este modo, la economía en sí se volvería un ámbito de aprendizaje y se podría abordar como un tema de estudio y acción transformadora, como lo son la salud, la educación y la producción agropecuaria.

Esto implica ir más allá de las modas, los paquetes y las fórmulas simplistas de desarrollo que plantean que este puede ser algo que se entrega a los necesitados, por muy importantes que sean: infraestructuras, tecnología, educación, salud…

Además, requiere la democratización de la ciencia, la apertura de espacios, no necesariamente de investigación vanguardista, donde las masas pudieran participar en cierto grado en la producción científica sobre el desarrollo.

Las fuentes del conocimiento

Otra cuestión clave del pensamiento del Dr. Farzam Arbab, relacionada con la noción anterior, es la idea de que el conocimiento necesario para forjar el desarrollo, además de proceder de la experiencia práctica por propiciar el progreso social, debe proceder de tres fuentes en interacción: la ciencia, el conocimiento tradicional de la población local o regional que asume su sendero de desarrollo y el acervo moral y espiritual de la humanidad –la religión–.

Sin esta interacción, se erosiona el conocimiento tradicional, no se logra conectar con la población local donde se suele concentrar la acción, se puede llegar a romantizar el conocimiento autóctono desacreditando a la ciencia o se pueden asumir inconscientemente nociones perjudiciales para fomentar actitudes proclives al desarrollo relacionadas con la naturaleza humana, los fines y los medios y el progreso.

La visión que se tiene de los campesinos y de los pobres es uno de esos temas a los que le dio la mayor relevancia, puesto que, tanto el programa de modernización, como la revolución verde, el enfoque de las necesidades básicas e incluso el marco del desarrollo humano, solían pecar del mismo defecto: ver a las personas a quienes supuestamente se ha de empoderar como vagos e improductivos, en el peor de los casos, o conglomerados problemas a resolver y de necesidades a satisfacer, en el mejor.

Al igual que encontrar formas de producción más eficientes y ecológicas –por poner un ejemplo– debía ser el objeto de un escrutinio científico riguroso, identificar nociones sobre el ser humano que induzcan confianza en su potencial también debería ser estudiado en profundidad.

La participación y el empoderamiento

Ante la moda de la participación, ya sea en los servicios que se ofrecen, en los proyectos o en los procesos de toma de decisiones, el Dr. Arbab desde el inicio consideraba que la gente debía ser la protagonista del desarrollo. Sin embargo, muchas fuerzas sociales impiden que el potencial humano se libere.

La plétora de programas políticos así como de iniciativas civiles de cooperación, muchas veces iban acompañadas de estilos de liderazgo paternalistas y de intereses demasiado estrechos que, en ningún caso, lograban colocar a las personas en el medio.

En línea con la perspectiva de la concienciación de Freire, pero probablemente llevando el principio de participación a un nivel de radicalidad mayor, veía a la humanidad entera como protagonista irreemplazable de la empresa global del desarrollo. Sin el concierto de todos, no se podrían superar los desafíos históricos.

En las localidades menos favorecidas, donde la mayoría ve dolor, pobreza y sufrimiento, se ha de aprender a identificar, por encima de todo, el potencial, a fin de que este, mediante la educación, pueda ser cultivado.

Además, la separación entre ellos (quienes sufren) y nosotros (quienes ayudamos) se debería disolver, puesto que todos somos los partícipes de un camino que ha de conducir a un modelo de desarrollo y organización social que genere bienestar para todos.

La educación integradora

Lo anterior se vincula con la convicción que tenía el Dr. Arbab de que la educación era una de las claves para el desarrollo; la cantidad de materiales educativos, la innovación pedagógica que gestó y los programas de educación para el desarrollo que cuajaron bajo su guía, lo acreditan.

Se adelantó a la idea de competencias y de interdisciplinariedad con la herramienta de desarrollo curricular que diseñó: la noción de capacidad, entendida como un entramado de cualidades y actitudes, conceptos e información, herramientas y habilidades para emprender acciones transformadoras y que se agrupan en capacidades científicas, tecnológicas, matemáticas, del lenguaje y la comunicación y del servicio comunitario. Aquí también fue pionero.

Hoy se habla de aprendizaje y servicio como uno de los enfoques más innovadores y los trabajadores sociales lo estudian con entusiasmo. En los años 70 ya lo aplicaba este visionario, puesto que los programas de FUNDAEC colocan a la acción en el centro y empoderan, a través del estudio, la conversación y la actividad intensa para servir a la comunidad con creciente efectividad.

Algunos de estos programas de educación para el desarrollo, como el SAT –también impulsó, entre otros, dos licenciaturas, dos posgrados y diversos programas informales como el Preparación para la Acción Social extendida por casi todos los continentes hoy día–, han sido reconocidos por diferentes gobiernos como currículos oficiales y sistemas alternativos que se han extendido masivamente para ofrecer una educación de alta calidad a zonas donde no llega el sistema formal.

Este apartado de la visión de la educación que el Dr. Arbab poseía y de los logros cosechados en este campo se prestaría para un libro extenso.

Las estructuras locales y la creación de capacidad

De todo lo propuesto hasta ahora, se puede observar que la creación de capacidad representa el rasgo central del enfoque para el desarrollo del Dr. Farzam Arbab.

En última instancia, consideraba que la creación de capacidad en los individuos, en la comunidad y en las instituciones –al mismo tiempo– debía ser la preocupación central de todo esfuerzo por lograr la prosperidad y ayudar a una población a adueñarse de su progreso. La modernización había erosionado las estructuras tradicionales sin reemplazarlas por otras, lo que había sido una de las principales causas de la desolación de esos territorios.

Sin estructuras pertenecientes a la gente que puedan impulsar procesos de aprendizaje y de investigación-acción, que permitan la interacción del conocimiento científico y del tradicional, que faciliten la introducción de programas educativos que empoderen sin dividir, la sistematización de los aprendizajes y la difusión del conocimiento generado a través de la misma población, lograr el desarrollo es solo una utopía, una quimera.

Esta perspectiva condujo al Dr. Arbab a la creación de la Universidad Rural, una institución que ha permitido vertebrar los objetivos recién señalados.

Desde ella, la población del Norte del Cauca, por ejemplo, ha podido emprender, y sigue emprendiendo –aspirando a la sostenibilidad y al crecimiento en escala–, múltiples proyectos, programas e investigaciones sobre los distintos procesos de vida –agricultura, ganadería, procesamiento, comercialización, transformación industrial, educación, socialización y comunicación…– que, cuando logran un éxito relativo, se sistematizan y documentan para incorporarse a los nuevos materiales educativos, a fin de formar a la misma población y diseminar el conocimiento.

Integración, complejidad y sentido de misión histórica

A pesar de la magnitud de la tarea, el desarrollo ha de comenzar de manera sencilla, con una o dos líneas de acción que, a medida que se crea mayor capacidad, se logra implicar a más gente local y se consiguen más recursos, se complementan con otras líneas de acción que se van integrando en un enfoque holístico coherente que, a toda costa, evita la fragmentación tal prevalente en la vida moderna.

Por último, el Dr. Arbab veía al desarrollo dentro de un proceso histórico mundial de transformaciones que parecían estar forzando a la humanidad a repensar los fundamentos últimos sobre los que se erige la civilización.

El reconocimiento de la unicidad del género humano alcanzado por la antropología y la genética a principios del siglo XX –un principio también presente en las diferentes tradiciones indígenas, religiosas y espirituales de la mayoría de los pueblos–, la justa distribución de recursos entre individuos, grupos y naciones y el respeto y fortalecimiento de la diversidad cultural de la especie debían imprimir la motivación, constituir la visión de futuro e informar los medios y los enfoques para una movilización masiva de alcance glocal que permitiera alcanzar dicho estado de prosperidad y justicia colectiva sin precedentes.

Aunque no existan, el Dr. Arbab fue un gigante, un genio invisible entre la gente que pasó desapercibido, aunque no su legado… porque así él lo decidió.

The Conversation

Sergio García Magariño no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

The Conversation. Rigor académico, oficio periodístico

Así detectamos y contamos la basura que flota en el mar

Imagen de residuos marinos utilizados para entrenar MARLIT, una herramienta basada en 'deep learning'. Àlex Aguilar / UB, Author provided

Los residuos marinos se definen como cualquier material sólido persistente que ha sido manufacturado o procesado y después, desechado, perdido o abandonado en el medio marino o costero. Están presentes en todos los mares y océanos del mundo y amenazan todo tipo de fauna marina, desde invertebrados, peces y tortugas hasta mamíferos marinos.

Los residuos marinos flotantes de origen antropogénico de mayor tamaño (macrorresiduos de más de 2,5 cm) son especialmente dañinos. Los organismos marinos pueden enredarse en ellos o ingerirlos. Sobre todo, las grandes especies fiadoras como las ballenas.

Monitorizar la densidad y los patrones de distribución de la basura en el océano mediante metodologías estandardizadas es importante para revertir esta amenaza ambiental.

Cómo contar los residuos en el mar

Tradicionalmente, los macroresiduos flotantes se estudiaban por observación directa desde barcos o avionetas. Pero el enorme tamaño de los océanos y la gran cantidad de datos que se deben recopilar durante las campañas hacen que sean extremadamente laboriosas y costosas.

Las técnicas automatizadas de fotografía aérea combinadas con el uso de algoritmos de análisis permiten una mayor eficiencia en el control de la contaminación por basura en el mar.

A pesar de ello, la teledetección de la basura marina flotante está aún en sus inicios. Pocos estudios han desarrollado algoritmos para detectarla automáticamente en imágenes aéreas de la superficie marina. Factores como el oleaje, el viento, las nubes o el brillo dificultan la automatización del proceso.

Basura flotante
Basura flotante. Àlex Aguilar / UB, Author provided

Deep learning para monitorizar residuos

Investigadores del Grupo de Grandes Vertebrados Marinos (IRBio y BIOST) de la Universidad de Barcelona hemos desarrollado un algoritmo basado en deep learning capaz de detectar y cuantificar los residuos flotantes en el mar con una fiabilidad superior al 80 %.

Nuestro trabajo, recientemente publicado en la revista Environmental Pollution, es el resultado de analizar mediante técnicas de inteligencia artificial centenares de imágenes aéreas de la costa catalana obtenidas desde drones y avionetas.

Hemos adaptado el algoritmo en una aplicación, llamada MARLIT. Esta permite analizar las imágenes de una en una, dividirlas en varios segmentos (cuyo número es definido por el usuario), identificar la presencia de macrorresiduos flotantes en cada uno de ellos y estimar su densidad a partir de los metadatos de la fotografía (altura y resolución).

El objetivo de cara al futuro es integrar la herramienta directamente en sensores remotos como drones, cámaras de alta resolución o satélites para automatizar aún más el proceso. La aplicación se basa en técnicas de deep learning, un campo del aprendizaje automático en inteligencia artificial que incluye redes capaces de aprender a partir de datos no estructurados o no etiquetados.

Hemos utilizado más de 3 700 fotografías obtenidas desde drones y avionetas tanto en campañas experimentales hechas con objetos flotantes de forma, color y tamaño conocidos, como en campañas de monitorización a lo largo de la costa catalana. Esta gran cantidad de imágenes de la superficie marina ha permitido desarrollar y testar el algoritmo.

Imágenes de las campañas fotográficas llevadas a cabo mediante avionetas y drones en Barcelona, Blanes, el delta del Ebro y el cabo de Creus. Morgana Vighi / UB; Bertrand Bouchard; Àlex Aguilar / UB, Author provided

MARLIT contra los residuos marinos

A nivel europeo, la Directiva Marco sobre la Estrategia Marina recomienda y requiere la monitorización de los macrorresiduos flotantes para cumplir con la evaluación continua del estado del medio marino.

La automatización de los procesos de monitorización y el uso de aplicaciones como MARLIT permitirían agilizar los procedimientos de control de este tipo de contaminación de los océanos, facilitando el cumplimiento de la directiva por parte de los estados miembros.

Ejemplo de análisis de una imagen aérea obtenida mediante un dron a través de MARLIT para detectar y cuantificar la basura marina flotante en imágenes aéreas. Antonio Monleón Getino/ Pere López-Brosa / UB, Author provided

Nuestros hallazgos ponen de manifiesto la importancia de los sensores de teledetección para examinar la superficie marina y avanzar en la evaluación de la presencia, densidad y distribución de los macrorresiduos flotantes en los océanos de todo el mundo.

La fotografía aérea ya se está utilizando a gran escala, incluyendo el estudio de la gran isla de plásticos del Pacífico (Great Pacific Garbage Patch, en inglés). Sin embargo, no se emplea todavía ningún algoritmo estandarizado y eficiente para estimar la abundancia y la densidad de los macrorresiduos marinos flotantes en las imágenes.

Los gestores de áreas marinas protegidas y otras entidades o usuarios individuales podrían usar MARLIT para detectar y cuantificar estos desechos. De esta forma, la aplicación supone un avance en la lucha contra la contaminación marina.

The Conversation

Odei Garcia-Garin recibió fondos del proyecto MEDSEALITTER (1 MED15_3.2_M12_334; European Union – European Regional Development Fund- Interreg MED).

Luis Cardona Pascual recibe fondos de la Unión Europea (Interreg).

Morgana Vighi recibió fondos del proyecto MEDSEALITTER (1 MED15_3.2_M12_334; European Union – European Regional Development Fund- Interreg MED).

Antonio Monleon Getino, Assumpció Borrell, Pere López Brosa, Ricardo Stalin Borja Robalino y Álex Aguilar no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

The Conversation. Rigor académico, oficio periodístico

Qué debemos tener en cuenta en una entrevista de trabajo

Shutterstock / New Africa

Incorporar nuevos empleados supone un reto para cualquier empresa. En la actualidad, cuando se compite por el talento, lo es más todavía. Pero, ¿qué es lo importante en un proceso de selección? ¿En qué tenemos que fijarnos para no fallar? ¿Qué tenemos que buscar en los candidatos?

Los departamentos de Recursos Humanos y los expertos en selección llevan mucho tiempo dedicados a la búsqueda e incorporación de talento a las empresas. Los requisitos de entrada a la empresa son muy diferentes a los de hace unos años, pero también lo son las nuevas generaciones de candidatos pues:

  • Nacieron y crecieron inmersos en las tecnologías de la información y comunicación.

  • Enuncian valores diferentes.

  • Han cubierto la formación obligatoria y añadido algún idioma a su currículum.

  • Desean encontrar entornos de trabajo que les permitan tener iniciativa.

  • Están familiarizados con un enfoque laboral basado en competencias.

Los procesos de atracción y adquisición de talento están cambiando. Las empresas han añadido mecanismos digitales y se accede a ellos a través de cualquier dispositivo móvil. Sin embargo, los fundamentos de los perfiles buscados apenas se han modificado. Vamos a analizar las fases del proceso de selección y qué tenemos que tener en cuenta en cada una de ellas.

Atracción del talento

Es la fase fundamental y su objetivo es atraer el número suficiente de candidatos válidos, en cantidad y calidad, para la empresa. Para ello es importante contar con una buena imagen de marca como empleador (employer branding). Un buen proceso de adquisición de talento genera valor a largo plazo para la compañía.

Tras la revisión o cribado curricular de los candidatos, manual o automático (killer questions), se agrupa a los candidatos en tres categorías:

  1. Cumplen todos los requisitos, o casi todos.

  2. Son dudosos porque falta información determinante.

  3. No cumplen los requisitos.

Es fundamental que se pueda obtener del primer grupo una cantidad suficiente de posibles candidatos. Si no, hay que recurrir al grupo 2, completando la información omitida en su CV. El grupo 3 se desestima directamente.

A tener en cuenta: en este primer paso del proceso se deben utilizar todos los medios disponibles para llegar a los futuros candidatos: red de contactos, redes sociales profesionales, web corporativa, portales generalistas, etcétera.

Adquisición del talento: evaluación de competencias

Para evaluar las aptitudes de los candidatos, lo más normal es recurrir a pruebas de evaluación por competencias, que pueden ser online o pruebas hechas a medida. Cuando hay un gran número de aspirantes se suele recurrir a los test de inteligencia (se aplican ofertas públicas de empleo, por ejemplo); los test de capacidad cognitiva o de capacidad mental son una buena opción. De hecho, poseen una capacidad predictiva alta sobre cómo se comportará la persona en el puesto de trabajo.

Es habitual combinar los test de inteligencia con test de personalidad. Además, los test de valores permiten determinar si los valores de la empresa y los del futuro trabajador están alineados.

A tener en cuenta:: los candidatos que mejor puntúen en estas pruebas serán los seleccionados para pasar a la siguiente fase.

Adquisición del talento: la entrevista personal

Las entrevistas semiestructuradas (con preguntas abiertas y cerradas) son una buena opción para observar las reacciones del candidato. Las entrevistas por competencias son otra posibilidad.

La entrevista es el mejor momento para aclarar aspectos que falten en el CV o que generen dudas. Se deben anotar las respuestas y asignarles puntuaciones, siguiendo una ponderación predeterminada.

Las consultas a empleadores previos y los rastreos en la red ayudan a consolidar el perfil de los potenciales elegidos.

A tener en cuenta: de la entrevista personal saldrá una terna de candidatos sobre la que se tomará la decisión final.

Incorporación a la empresa

Esta fase consta de varias partes:

  • Programa de acogida. Es fundamental, pues muchos candidatos abandonan la empresa a los 6 meses de haberse incorporado. La principal razón: porque no es lo que esperaban o porque no cumple las expectativas generadas.

  • Presentación en la empresa.

  • Periodo de prueba (si procede).

Además del contrato legal, también está el contrato psicológico: “lo que yo espero de ti, lo que tú esperas de mí”. Es tan importante como el contrato formal, pues uno de los objetivos del área de recursos humanos es conseguir el compromiso del trabajador con la empresa. Las empresas con un alto nivel de absentismo y rotación tienen un bajo nivel de compromiso de sus empleados.

Finalmente, hay dos ratios del proceso de selección que los encargados de recursos humanos deben tener muy en cuenta pues miden su eficiencia:

  • Rendimiento del proceso yield ratio: que mide la relación entre solicitudes presentadas y entrevistas realizadas.

  • Tiempo de contratación (time lapse ratio): que mide el tiempo que transcurre desde que se determina la necesidad de incorporar a alguien a la empresa hasta que se contrata.

Ambos ratios son fundamentales para un buen proceso de selección.

A tener en cuenta: las empresas son como decorados de cine. Por fuera dan una imagen pero, una vez se cruza el umbral, se conoce la realidad y lo que allí se encuentra: un buen o mal ambiente de trabajo, la existencia o no de competitividad, las posibilidades reales de promoción, etcétera.

Reflexión final

Tenemos varios candidatos con el título necesario, con un máster, con conocimiento de idiomas… ¿Es eso todo? Hay que tener claro que esos primeros requisitos son los más fáciles de cumplir. Lo difícil es conseguir un candidato que sume las siguientes actitudes:

  • Equilibrado emocionalmente: que no tenga altibajos, que tenga estabilidad emocional.

  • Con ganas de trabajar, iniciativa, autonomía y capacidad de aprendizaje, flexible, abierto a iniciativas e ideas, con motivación.

  • Que se integre en equipos de trabajo como uno más, que aporte y sume al equipo.

  • Que no sea problemático.

  • Educado y con dotes de comunicación interpersonal y empatía.

La experiencia demuestra que este conjunto de rasgos se convierte en el mayor valor añadido que pueden ofrecer los potenciales candidatos a su empleador.

Conseguir la incorporación de personas con este perfil es solo el primer paso. Luego, la empresa tendrá que ofrecerles un menú variado de formación (upskilling y reskilling) y oportunidades de promoción y remunerarlos satisfactoriamente, además de diseñar un plan de asunción de responsabilidades y tareas para que acaben siendo empleados autónomos y proactivos en su trabajo.

Eso llevará al trabajador a sentirse apreciado y valioso para la empresa, y a alcanzar el punto más alto de la pirámide de Maslow: la autorrealización.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

The Conversation. Rigor académico, oficio periodístico

Ámbar gris: la caca de cachalote que vale su peso en oro

_Botes atacando ballenas_ (Thomas Beale, 1839) de la obra Natural History of the Sperm Whale, London: John van Voorst, 1839. The University of Washington Libraries

El pasado 1 de marzo, un tuit del Daily Mail lanzó la noticia: «Mientras caminaba por una playa, una mujer encuentra una masa de 15 libras de vómito de cachalote valorada en 185 000 £». Tecleando “vómito, ámbar gris”, una búsqueda en Google arroja casi 15 000 entradas que repiten el mismo error: que el ámbar gris es vómito de ballena.

No faltan tampoco quienes piensan que es fruto de un proceso misterioso, algo así como la impureza que forma una perla en el seno de una ostra. No es así, es mucho más prosaico. En su Historia natural del cachalote (1839), Thomas Beale dejó muy claro que la preciosa sustancia es, literalmente, mierda. Esto no impide que el ámbar gris sea el producto más preciado que puede encontrarse en cualquier animal, una creación natural tan valiosa como el oro o los diamantes.

Que el ámbar gris sea tan caro no es ninguna novedad. Desde hace siglos ha sido considerado un producto de lujo. Los antiguos chinos conocían esta sustancia como lung sien hiang o “fragancia de baba de dragón”, y la utilizaban para aromatizar el vino que consumía la nobleza imperial. La intrigante sustancia de origen misterioso se utilizaba para fines diversos y exóticos.

Durante la Peste Negra, la gente llevaba ámbar gris encima para protegerse de la plaga. En el Renacimiento lo secaban, moldeaban y trabajaban como una piedra preciosa. También se decía que era un afrodisíaco eficaz, una medicina para el corazón o el cerebro, y para tratar enfermedades como la epilepsia, el tifus y el asma.

Como cuenta Philip Hoare en Leviatán o la ballena, un hermoso ensayo y una especie de biblia sobre los cetáceos, era también un bálsamo que, mezclado con jazmín, rosa, canela, almizcle, civeta y otras fragancias, servía para preparar el perfume iniciático con el que se ungían los cabellos de los soberanos británicos durante la ceremonia más secreta de la sagrada liturgia de su coronación.

En 1851, en Moby Dick, uno de los grandes clásicos de la literatura universal, Herman Melville dejó escrito el valor de un excremento que le parecía repugnante:

«¿A quién podría ocurrírsele, pues, que damas y caballeros exquisitos se deleiten con una esencia surgida de las tristes entrañas de una ballena enferma? Y sin embargó es así».

En esta misma novela, Ismael, el protagonista, cuenta que los turcos introdujeron esta sustancia en La Meca «con el mismo propósito con que el incienso fue llevado hasta San Pedro en Roma».

En su Historia natural del cachalote, Thomas Beale destacó que estos depredadores de apetito pantagruélico no mastican sus presas, sino que más bien las succionan a modo de vórtice orgánico, como confirman los pliegues ventrales de sus colosales tragaderas. Ingieren cantidades prodigiosas de cefalópodos: llegan a consumir entre trescientos y setecientos calamares cada día, pero también atunes y barracudas. En sus estómagos se han hallado tiburones enteros.

El calamar gigante Architeuthis dux pelea contra un cachalote. G. Loates

Como hacen muchas aves, reptiles y mamíferos depredadores con los restos duros indigeribles de sus presas, lo que hacen los cachalotes con los centenares de picos córneos de los calamares y las plumas de las sepias es regurgitarlos enteros. En algunos casos –impelido hacia abajo por poderosos movimientos peristálticos– el material duro continúa su recorrido por el sistema digestivo, que en estos cetáceos cazadores consta de cuatro estómagos que preceden a doscientos metros de intestinos.

Los cefálopodos sin digerir llegan al primero de los cuatro. Luego pasan al segundo para que los fuertes ácidos, ayudados por una masa de nemátodos endoparásitos, los despiecen y los reduzcan a una pulpa. Cuando, después de atravesar los otros dos estómagos revueltos entre otros desechos no digeribles como la cutícula de los nemátodos, los negros picos del calamar, brillantes y quebradizos, se desplazan por el intestino inferior formando una espantosa masa informe, el sistema digestivo del cetáceo segrega bilis como lubricante para facilitar su avance.

Como respuesta al problema intestinal y para amortiguar el doloroso daño que provocan en su interior, los desdichados cachalotes que han engullido los picos los recubren con una secreción grasa rica en colesterol, que cementa el conglomerado córneo. Por suerte para los cetáceos –y gozo de quienes tienen la fortuna de encontrarlo–, el ámbar gris lo produce uno de cada cien cachalotes y no todos lo expulsan por el recto: los más desdichados mueren enfermos de indigestión.

Como es más ligera que el agua, una vez expulsada esa masa informe flota sobre las corrientes oceánicas durante años, oxidándose y endureciéndose en fragmentos que a menudo aún contienen pedacitos de picos de calamar, hasta que el azar del oleaje los deposita en algún lugar remoto como un anodino pedrusco céreo cuya textura recuerda a la resina fosilizada de los árboles de la que recibe el nombre y que también se encuentra en las orillas de mares y lagos.

Como no podía ser menos, dado su escatológico origen, la materia que luego pasará a formar parte de carísimos perfumes comienza su viaje oliendo literalmente a heces, pero cuando se deposita en una playa después haber navegado durante varios meses, ya ha adquirido un aroma particular entre acre y almizcleño de origen indudablemente animal.

A manera de la legendaria piedra filosofal, el mar transforma la caca en oro flotante.

Imposible de imitar

En un libro que lleva precisamente ese título, Floating Gold, el biólogo molecular Christopher Kemp explica que, entre otras cualidades como su escasez, el valor exorbitante se debe a sus propiedades como fijador de perfumes. Es escaso y es imposible fabricarlo en laboratorio. Es cierto que se han creado versiones artificiales similares, pero distan mucho del original. Es algo así como escuchar tocar a Bruce Springsteen o a una buena banda que interpreta un tema de Bruce Springsteen. Suenan de alguna manera igual, pero les falta algo imposible de definir.

El elemento activo del ámbar gris es la ambreína, una secreción de colesterol graso y cristalino, que se ha sugerido como el componente activo que produce los supuestos efectos afrodisíacos del ámbar gris.

Aunque la ambreína en sí misma es inodora, sirve como precursor biológico de varios derivados aromáticos como la ambroxaína, que poseen propiedades fijadoras de aceites volátiles mediante una evaporación lenta. Por eso se cotiza tanto, porque las grandes marcas de lujo lo utilizan como fijador de aromas para sus carísimos perfumes. Esa es la cualidad que lo hace tan deseable para los perfumistas: su habilidad para absorber, intensificar y capturar las fragancias más volátiles a veces durante años. Si lo frotamos entre los dedos, seguiremos oliendo a ámbar durante días.

Todas las grandes firmas de perfumería francesas desde Chanel hasta Gívenchy y Christian Dior siguen fabricando exquisitos aromas con ese mágico componente. En la película Esencia de Mujer, el coronel Slade, un ciego malhumorado, baila un tango con Donna, una hermosa mujer. Slade inhala con placer el dulce perfume de la mujer, aunque puede que, en esencia, Donna despidiera el aroma de un desdichado cachalote.

The Conversation

Manuel Peinado Lorca es responsable del Grupo Federal de Biodiversidad del PSOE.

The Conversation. Rigor académico, oficio periodístico

Eficacia y efectos secundarios de las cuatro vacunas aprobadas contra la COVID-19

Shutterstock / Mdisk

A pesar de las diferentes tecnologías utilizadas para la obtención de vacunas contra la COVID-19, las cuatro aprobadas por los dos organismos independientes más importantes (Estados Unidos y Europa) han demostrado una alta eficacia, muy superior al 50% exigido por la OMS como límite para su aprobación.

Todo ha ido tan rápido que nos surgen tres preguntas: ¿cómo son, cómo nos protegen y qué efectos secundarios producen estas vacunas? Intentamos responder basándonos en las publicaciones y notas de prensa de las empresas productoras, así como en los informes de las dos agencias reguladoras: la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA), en EEUU, y la Agencia Europea de Medicamentos (EMA) en Europa.

¿Qué vacunas han sido aprobadas en EEUU y Europa?

La FDA ha aprobado para su administración en EEUU las vacunas producidas por las empresas Pfizer/Biontech, Moderna y Johnson and Johnson/Janssen, de la que se espera su aprobación por la EMA pronto.

Por su parte, la EMA ha autorizado las vacunas Pfizer/Biontech, Moderna y AstraZeneca/Oxford. Todas han superado ensayos clínicos abarcando decenas de miles de personas y algunas se están administrando masivamente a la población. En la tabla 1 resumimos las características más importantes de estas cuatro vacunas.

¿Cómo han sido los ensayos clínicos?

Para obtener la aprobación de las agencias reguladoras, las empresas productoras de vacunas deben realizar ensayos clínicos que involucran a decenas de miles de personas. Las cuatro empresas han realizado estos ensayos, pero se han producido en diferentes países, con diferentes rangos de edades y en distintos momentos de la pandemia.

¿Importa? Sí. Sobre todo porque en los últimos meses han aparecido variantes del virus que pueden transmitirse con mayor facilidad e incluso evadir parcialmente la respuesta inmune.

En cualquier caso, una vez terminados los ensayos de fase III, a cada vacuna se ha asignado un porcentaje de eficacia, una aproximación de cómo de bien ha protegido a los voluntarios que habían recibido la vacuna con respecto a los que recibieron un placebo. En la tabla 2 se presentan algunos de estos datos para las cuatro vacunas que estamos analizando.

Como se observa en la tabla, la eficacia de las dos vacunas cuyos ensayos clínicos se realizaron más tarde (AstraZeneca/Oxford y J&J/Janssen), en presencia de nuevas variantes del virus, es menor. Por eso es difícil comparar la eficacia de las cuatro vacunas.

Otra diferencia importante tiene que ver con el rango de edades. Los ensayos clínicos de la vacuna AstraZeneca/Oxford incluían tan pocas personas de más de 65 años que no se puede juzgar sobre su eficacia en este segmento de población. Por eso en muchos países solo se administra a personas más jóvenes.

Efecto en enfermedad grave, hospitalización, decesos

En los ensayos clínicos también se deben analizar aspectos relevantes que dan una idea de otros beneficios de las vacunas. En general, las vacunas deberían reducir el número de personas que se infectan, el número de casos de enfermedad grave, el grado de severidad y la hospitalización y el número de decesos. Un resumen de los datos extraídos de los ensayos clínicos se muestra en la siguiente tabla.

Vemos que el descenso de casos de enfermedad grave es muy importante. También el de ingresos en UCI y decesos, aunque, como se indica en un reciente artículo en The Atlantic, hay muy pocos casos tanto en el grupo placebo como en el de vacunados. Por lo tanto conviene ser prudentes y esperar a los datos que vayan surgiendo de las campañas de vacunación.

Efectos secundarios: ¿hay diferencias o son semejantes?

En las cuatro vacunas las reacciones adversas notificadas en ensayos clínicos son muy similares y, como veremos, no difieren esencialmente de las observadas para las vacunas que hemos recibido desde que nacimos. Se observan algunas diferencias según la intensidad, que puede ser leve o moderada, pero siempre remiten a los dos días con analgésicos de prescripción habitual. En ninguna vacuna se han observado reacciones de intensidad severa.

Sí se han llegado a observar reacciones alérgicas que, por ser extremadamente infrecuentes, se clasifican como “de frecuencia desconocida”. Estas, afortunadamente, han remitido tras intervenciones rápidas. Por eso es recomendable reposo y vigilancia unos 15–30 minutos posteriores a la administración. En la siguiente tabla podemos ver los efectos observados para las cuatro vacunas.

Pero el estudio de los efectos adversos de las vacunas no finaliza una vez aprobadas. La vigilancia tiene como finalidad detectar cualquier efecto en el proceso de vacunación. A fecha de 9 de marzo se ha publicado ya el tercer informe de farmacovigilancia de la AEMPS, en el que no se ha notificado en España ningún efecto adverso no descrito para las vacunas aprobadas, cuando ya se han administrado más de 3 millones de dosis.

En la siguiente tabla vemos los efectos adversos más comunes de las vacunas que recibimos según el calendario de vacunación prescrito por las autoridades sanitarias. Son muy similares a los descritos anteriormente para las vacunas contra COVID-19. La diferencia es que la mayoría de ellas se nos administran cuando somos muy pequeños y no nos acordamos.

¿Cómo están funcionando estas vacunas en el mundo real?

Una vez las vacunas han sido aprobadas por las Agencias Reguladoras, comienzan los estudios a pie de calle con la finalidad de conocer la efectividad de la vacuna. Ya no se compara entre vacuna y placebo, sino entre personas vacunadas y personas no vacunadas.

Aunque aún es pronto para conocer estos resultados, ya hay datos muy alentadores. Muchos de estos datos proceden de Israel, país que llegó a un acuerdo con Pfizer/Biontech para tener acceso a su vacuna a cambio de información sobre la incidencia de la enfermedad durante las campañas de vacunación. Pues bien, en Israel ya se han parado bruscamente las hospitalizaciones y muertes entre la población mayor de 65 años. Por tanto, parece que la efectividad de la vacuna va a ser muy semejante a su eficacia, es decir por encima del 90%. Y lo mismo cabe esperar de las otras tres vacunas que hemos mencionado.

A modo de comparación, la vacuna de la gripe, que se administra masivamente todos los años, tiene una efectividad que ronda entre el 40 y el 60%.

¿Qué nos espera en los próximos meses?

Ya sabemos que estas cuatro vacunas funcionan y son seguras. Como ya anticipamos en un artículo anterior, en un año desde que comenzó la pandemia tenemos más de un caballo ganador. Es de esperar que lleguen a la meta muchas otras que supondrán mejoras, como eliminar la transmisión del virus o adaptarse rápidamente a nuevas variantes.

Lo que parece indiscutible es que ahora, como sociedad, tenemos un reto: vacunar lo antes posible a la población con estas cuatro vacunas y las que se vayan aprobando. Es imprescindible para atajar la pandemia.

No es sencillo comparar la eficacia de estas vacunas pero sí sabemos que es muy superior a la de otras que se administran rutinariamente, como la de la gripe. Y sí podemos comparar los efectos secundarios. Estos son similares, y en la inmensa mayoría de los casos (si surgen) se disipan en 24-48 horas, atenuados con analgésicos. Igual que las vacunas que rutinariamente ponemos a nuestros bebés.

La relación beneficio/riesgo está clara. Ahora la cuestión es: ¿vamos a ser nosotros más melindrosos que ellos? ¿Acaso vamos a dejar de vacunarnos por no pasar unas décimas de fiebre y algo de malestar?

The Conversation

Las autoras participan en el proyecto BIFISO, PIE CSIC-COVID-19-027, financiado por el CSIC, para la lucha contra la COVID-19 en el marco de la PTI Salud Global.

María Mercedes Jiménez Sarmiento no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

The Conversation. Rigor académico, oficio periodístico