La secuenciación metagenómica (mNGS) es una poderosa herramienta de diagnóstico para detectar patógenos causantes en pruebas microbiológicas clínicas. La clasificación rápida y precisa de las secuencias metagenómicas es un procedimiento crítico para la identificación de patógenos en el paso de laboratorio seco de las pruebas mNGS. Sin embargo, este paso crucial puede mejorarse clasificando las secuencias en un plazo clínicamente relevante.

Para hacer frente a este reto, un equipo de BGI Genomics dirigido por Xuebin Wang ha lanzado recientemente GPMeta, un método ultrarrápido de detección de patógenos, y ha publicado estos aspectos destacados en Briefings in Bioinformatics.

GPMeta puede identificar patógenos de forma rápida y precisa a través de datos de secuenciación mNGS complejos y masivos. Utilizando conjuntos de datos simulados y conjuntos de datos de secuenciación metagenómica de muestras clínicas, los resultados se compararon con herramientas utilizadas por la comunidad de investigadores bioinformáticos como Bowtie2, Bwa, Kraken2 y Centrifuge.

Los resultados muestran que GPMeta no sólo tiene una mayor precisión, sino que también exhibe una velocidad con un incremento de velocidad significativo. Además, GPMeta ofrece un algoritmo de agrupamiento GPMetaC, un modelo estadístico para agrupar y volver a puntuar alineaciones ambiguas con el fin de mejorar la discriminación de secuencias altamente homólogas de genomas microbianos con una identidad nucleotídica media >95%. Estos resultados subrayan el papel clave de GPMeta en el desarrollo de la prueba mNGS en enfermedades infecciosas que requieren tiempos de respuesta rápidos.

Antecedentes

La detección más rápida y temprana de los patógenos causantes es fundamental para una terapia antibiótica precisa en lugar de un tratamiento empírico. Puede detectar simultáneamente casi todos los microorganismos patógenos nuevos y conocidos en el cuerpo del paciente en una sola prueba y tiene enormes aplicaciones potenciales en el diagnóstico de infecciones.

La detección de mNGS consta de dos componentes: las manipulaciones experimentales en laboratorio húmedo, que incluyen el preprocesamiento de muestras clínicas, la extracción de ácido nucleico total, la preparación de bibliotecas y la secuenciación, y el análisis bioinformático en laboratorio seco, que incluye el preprocesamiento de datos de secuenciación brutos, la eliminación de secuencias de huéspedes humanos, la alineación de secuencias con la base de datos curada de patógenos y la clasificación taxonómica de secuencias microbianas.

El análisis bioinformático es el último paso crucial en la detección de mNGS, que debe completarse con rapidez y precisión para acelerar todo el proceso de detección. Sin embargo, existe una necesidad urgente de nuevas estrategias para acelerar el análisis bioinformático de la identificación de patógenos.

Para hacer frente a este reto, GPMeta utiliza un esquema de índice hash sucinto y admite múltiples GPU para llevar a cabo en bases de datos divididas de forma simultánea, lo que satisface una necesidad creciente de la capacidad para hacer frente a un número cada vez mayor de genomas microbianos.

En el conjunto de datos de 25 millones de lecturas, GPMeta y GPMetaC sólo necesitan menos de 3 minutos para completar todo el análisis de detección.

En el conjunto de datos de 110 millones de lecturas (volumen de datos de detección mNGS convencional), GPMeta y GPMetaC sólo necesitan 4 minutos para completar todo el análisis de detección.

Cuando se aplicó a la biblioteca completa de patógenos de 190Gb, GPMeta y GPMetaC la aceleraron 39-50 y 12-35 veces respectivamente en comparación con Bwa y Bowtie2.

La detección completa y el análisis GPMeta son 18 veces y 12 veces más rápidos que Bwa y Bowtie2 respectivamente.

GPMeta admite múltiples GPUs para realizar el alineamiento y la clasificación taxonómica de secuencias microbianas en bases de datos divididas simultáneamente y fusiona automáticamente los resultados de múltiples sub-bases de datos, lo que resulta significativo para mantenerse al día con la rápida expansión de la base de datos de genomas microbianos. Para sacar el máximo partido de GPMeta, es necesario estudiar más a fondo cómo integrarla mejor y con mayor facilidad en las prácticas clínicas.

Abril 26/2023 (EurekaAlert!) – Tomado de News Releases  Copyright 2023 by the American Association for the Advancement of Science (AAAS) 

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

De manera silente e insidiosa, la aterosclerosis vascular se instaura en el árbol arterial durante décadas hasta que no pocas veces termina provocando una enfermedad coronaria, cerebrovascular o vascular periférica. La enfermedad cardiovascular es la primera causa de muerte en todo el mundo, y dentro de sus factores de riesgo están bien identificados los niveles descontrolados de colesterol LDL (c-LDL).

Los pacientes que han tenido un evento CV se encuentran con un riesgo mayor de sufrir otro; también se engloba como susceptibles de prevención secundaria aquellos con otros factores de riesgo, como diabetes o hipertensión, y con trastornos hereditarios, como hipercolesterolemia familiar o hiperlipemia familiar combinada. Hay herramientas, junto a las imprescindibles y consabidas pautas de estilo de vida saludable, para frenar o minimizar ese peligro asociado a niveles elevados de c-LDL y a la enfermedad vascular aterosclerótica.

Los tratamientos farmacológicos desarrollados en los últimos años ofrecen más oportunidades para aquellos cuyas cifras lipídicas no están bien controladas. Porque, y esto es un clamor entre los especialistas, el control de los pacientes en la prevención secundaria no es suficiente.

Carlos Guijarro, presidente electo de la Sociedad Española de Arteriosclerosis (SEA), y responsable de la consulta de Riesgo Vascular del Hospital Universitario Fundación Alcorcón, en Madrid, aporta una cifra: “En Europa, más de las dos terceras partes de los pacientes en prevención secundaria no están alcanzando el beneficio que podrían recibir de los tratamientos”, tal como muestra el estudio Santorini, publicado en la edición digital de The Lancet Regional Health – Europe.

Para Estíbaliz Jarauta, coordinadora del grupo de Prevención Secundaria de la SEA e investigadora del Ciber Cardiovascular (CV) en el Instituto de Investigación Sanitaria de Aragón, “es un problema que se constata estudio tras estudio. Las guías clínicas nos dan unos objetivos claros, pero a la hora de alcanzarlos en la vida real no es así”. Entre las razones esgrimidas se encuentran la inercia terapéutica por parte de los facultativos y la falta de adherencia a los tratamientos de los pacientes.

A ello se suma el hecho de que “históricamente no hemos evaluado bien los niveles de colesterol en el ingreso del paciente”, añade Carlos Guijarro, así como la influencia de un sistema de prescripción de fármacos más centrado en el control del gasto que en el de los resultados en salud: “Una buena valoración del riesgo vascular puede significar dejar de prescribir medicamentos innecesarios en determinados pacientes e intensificar el tratamiento en otros”, apunta el también profesor de Medicina en la Universidad Rey Juan Carlos, de Madrid.

Escalones terapéuticos

Entre las herramientas disponibles, se encuentran las estatinas, “fármacos cuyo uso generalizado ha demostrado gran eficacia, aunque, en algunos pacientes, se asocian a ciertos efectos secundarios, sobre todo mialgias y cefaleas”. Jarauta apunta que estos y otros síntomas pueden resultar “bastante invalidantes” para algunas personas. “Son efectos secundarios que, no obstante, no se reflejan ni cuantifican en pruebas, pero muchos los refieren y abandonan la medicación por ese motivo”.

Cuando las estatinas se quedan cortas en la reducción del c-LDL, se puede recurrir a su combinación con ezetimiba, que además también está indicada en los pacientes que no las toleran.

Y sin abandonar el arsenal terapéutico oral, se ha incorporado recientemente el ácido bempedoico, un profármaco que se activa a nivel hepático, a través de la enzima acil-coA sintetasa de cadena larga 1, y cuyo nicho terapéutico se encuentra en aquellos pacientes que no alcanzan los niveles de reducción de c-LDL con los tratamientos orales o que son intolerantes a las estatinas, pero que aún no se consideran candidatos a las moléculas inyectables que integran el siguiente escalón. La enzima activadora no se presenta en el músculo, por lo que este fármaco no produce efectos metabólicos que puedan asociarse a daño muscular.

En este último, se encuentran los inhibidores de la proproteína convertasa subtilisina/kexina tipo 9 (iPCSK9), fármacos de administración subcutánea que por sí solos disminuyen el colesterol LDL un 60%, y asociados a estatinas, lo bajan hasta en un 70-80%. “Son tratamientos de uso hospitalario, de administración quincenal, o incluso mensual; con ellos sabemos con seguridad que hay cumplimiento”, señala Estíbaliz Jarauta. Dentro de la vía de acción frente a PCSK9 también se encuentra el inclisirán, un micro-ARN de interferencia que silencia la síntesis de la proteína PCSK9 en los hepatocitos y de esta forma evita a captación del c-LDL. “La gran ventaja es que su efecto persiste varios meses, de forma que tras la primera dosis y una segunda a los tres meses, basta una inyección cada semestre”.

No obstante, los inyectables están reservados para aquellos enfermos considerados de muy alto riesgo, que deben mantener sus niveles c-LDL por debajo de 55 mg/dL y parten de 100 mg/dL, pues su ficha técnica reconoce la financiación si el paciente supera esa cifra a pesar de tratamiento óptimo con estatinas.

Queda así una zona gris, reconoce Jarauta, para aquellos que se mueven entre esa cifra pero no bajan de 100, o de 70 mg/dL, donde aún no se indican las moléculas inyectables, pero para los que la terapia hipolipemiante oral con estatinas y ezetimiba resulta insuficiente.

El ácido bempedoico se aprobó el año pasado por el Ministro de Sanidad por primera vez en condiciones restrictivas de no financiación, porque entonces no contaba con estudios de eficacia en prevención cardiovascular.

Ahora ese aval es notorio, con la reciente publicación del estudio Clear Outcomes en The New England Journal of Medicine (NEJM), así como su presentación en el congreso anual de la Asociación Americana de Cardiología (ACC).

Sobre esa reciente publicación, Carlos Guijarro destaca que respalda, “con la máxima calidad que aporta un ensayo aleatorizado, ciego y controlado con placebo”, la disponibilidad de “una nueva molécula oral y bien tolerada que ha demostrado reducir complicaciones cardiovasculares, y que puede administrarse en pacientes intolerantes a las estatinas”, población para la que “es importante tener una alternativa”, recuerda.

El profármaco confirma en este trabajo que “la reducción proporcional de colesterol se traduce en un beneficio en la prevención cardiovascular”.

 

Abril 26/2023 (Diario Médico) – Tomado de Medicina Interna – Tratamientos hipolipemiantes  Copyright Junio 2018 Unidad Editorial Revistas, S.L.U. 

Una nueva investigación demuestra que la actividad cerebral rítmica es clave para mantener temporalmente información importante en la memoria. Investigadores del Instituto Del Monte de Neurociencia de la Universidad de Rochester publican hoy en Current Biology estos hallazgos, según los cuales los ritmos cerebrales -o patrones de actividad neuronal- organizan las ráfagas de actividad en el cerebro que mantienen las conexiones a corto plazo.

«Hasta ahora se pensaba que el almacenamiento temporal de información importante estaba vinculado a neuronas cerebrales que simplemente se disparaban y retenían esa información hasta que ya no era necesaria. Investigaciones recientes han demostrado que tal vez no sea esa actividad cerebral persistente lo que más importa para el almacenamiento temporal de la información, sino más bien un fortalecimiento a corto plazo de las conexiones entre las neuronas que están representando la información.

Nuestra investigación demuestra que los ritmos cerebrales organizan estas ráfagas transitorias a lo largo del tiempo», afirma Ian Fiebelkorn, doctor, profesor adjunto de Neurociencia y autor principal del estudio. «La coordinación rítmica de la actividad cerebral a lo largo del tiempo es importante porque permite que poblaciones superpuestas de neuronas almacenen distintas piezas de información al mismo tiempo».

Las investigaciones anteriores de Fiebelkorn sobre la forma en que el cerebro procesa la información externa -como cuando se navega por Times Square en Nueva York- hicieron un descubrimiento similar. Fiebelkorn y otros investigadores descubrieron que los ritmos cerebrales ayudan a coordinar distintas funciones relacionadas con el muestreo de información importante o el cambio a otra fuente de información. En este contexto, los ritmos cerebrales ayudan a equilibrar la concentración en la tarea con la preparación para lo inesperado.

En esta nueva investigación, los investigadores se centraron en el muestreo de información representada internamente (o recordada). Utilizando EEG, los participantes observaron imágenes con líneas verticales u horizontales y se les pidió que recordaran tanto la dirección de la línea como la ubicación de la imagen. Los investigadores descubrieron que la fuerza de las representaciones internas de estas diferentes imágenes alternaba con el tiempo, en una escala temporal de sub-segundos, con fluctuaciones rítmicas en la actividad cerebral. Esta coordinación de la actividad cerebral a lo largo del tiempo permite que las funciones de algunas neuronas se solapen sin entrar en conflicto.

«Estos procesos cerebrales rítmicos también podrían explicar cómo podemos mantenernos concentrados mientras realizamos varias tareas a la vez, como cuando intentamos recordar una dirección mientras conducimos un coche», explica Fiebelkorn. «En lugar de concentrarnos simultáneamente en estas tareas, podríamos estar alternando entre ellas en una escala de tiempo de sub-segundos».

El siguiente paso del laboratorio de Fiebelkorn es determinar cómo el cerebro realiza varias tareas a la vez. «¿Qué ocurre cuando el cerebro tiene que hacer muestreos externos e internos al mismo tiempo, veremos el mismo tipo de coordinación temporal rítmica? Eso es lo que tratamos de entender a continuación. Cuanto más sepamos sobre el funcionamiento típico de estos procesos, más entenderemos cómo se estropean en los trastornos neurológicos».

Abril 25/2023 (EurekaAlert!) – Tomado de News Release  Copyright 2023 by the American Association for the Advancement of Science (AAAS)

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Científicos han propuesto una teoría sobre cómo las células cancerosas podrían adaptarse activamente al sistema inmunitario para hacerse resistentes a la inmunoterapia, según informa un estudio publicado hoy (25 de abril) en eLife.

Su teoría sugiere que, a medida que una población de células cancerosas evoluciona y se adapta en respuesta a ser reconocida y destruida por el sistema inmunitario, el reconocimiento inmunitario y las condiciones ambientales determinan la dificultad con la que una futura enfermedad puede ser atacada con un tratamiento diferente.

Los tratamientos que utilizan el propio sistema inmunitario del organismo contra el cáncer (inmunoterapias) prometen una remisión más duradera de la enfermedad. Al atacar las «banderas» moleculares de la superficie de las células tumorales, denominadas antígenos asociados a tumores (AAT), es posible alertar al sistema inmunitario del organismo de su presencia, potencialmente durante muchos años.

Por desgracia, al igual que los tumores encuentran mecanismos compensatorios para adaptarse a la quimioterapia, las células cancerosas también pueden encontrar formas de eludir el reconocimiento del sistema inmunitario. Pero mientras que la resistencia a los fármacos puede ser problemática para las terapias convencionales, cuando las células cancerosas se adaptan para evitar el reconocimiento inmunitario, pierden y ganan TAA, y estos nuevos antígenos podrían ser el objetivo de nuevas inmunoterapias.

«Hasta ahora se suponía que las células cancerosas se adaptaban a ser reconocidas por el sistema inmunitario de forma pasiva, en lugar de percibir el entorno inmunitario circundante y adaptarse activamente», explica Jason George, coautor del estudio y profesor adjunto del Departamento de Ingeniería Biomédica de la Universidad A&M de Texas (EE.UU.).

«Sin embargo, experimentos anteriores han demostrado que el nivel de evasión del cáncer puede ser ajustado con precisión por las células malignas que detectan las tensiones ambientales e inmunológicas. En respuesta al estrés, las células cancerosas pueden adaptarse adquiriendo mutaciones y alterando el nivel de proteínas que de otro modo serían raras, por ejemplo, para sobrevivir. Esto puede dar lugar a cambios en las firmas de antígenos presentes en las células cancerosas que el sistema inmunitario es capaz de reconocer, y el seguimiento de estas modificaciones podría revelar nuevas vulnerabilidades que pueden ser objeto de tratamiento terapéutico».

Bajo la vigilancia del sistema inmunitario humano, las células cancerosas se eliminan, escapan al sistema inmunitario o alcanzan un equilibrio en el que el cáncer coexiste con el sistema inmunitario durante un largo periodo de tiempo. Todos estos resultados dependen de una compleja interacción entre el reconocimiento inmunitario y la evolución del cáncer, y se desconocen en gran medida los efectos resultantes de una estrategia de evasión adaptativa del cáncer sobre la posterior progresión de la enfermedad.

Para abordar esta cuestión, el equipo desarrolló un modelo matemático para cuantificar la agresividad de la estrategia evolutiva de una población de células cancerosas cuando se enfrentan a diferentes entornos inmunitarios.

Como predijeron los autores, las poblaciones de células cancerosas que adoptaban una estrategia de evasión activa superaban a sus homólogas pasivas, lo que aumentaba drásticamente la frecuencia con la que las poblaciones cancerosas acababan escapando del sistema inmunitario. Sin embargo, aunque estas poblaciones evadieron la inmunidad, pagaron una penalización en forma de un mayor número de mutaciones y/o alteraciones transcripcionales, que afectan al perfil TAA general de la población celular.

El modelo también predijo que las células cancerosas en un entorno inmunitario favorable al tumor se volverían inestables porque ganan y pierden AAT, lo que podría explicar por qué los tumores sólidos suelen tener puntos «calientes» y «fríos» que responden o no a la inmunoterapia, respectivamente.

El modelo, denominado Evasión tumoral mediante pérdida adaptativa de antígenos (TEAL), consiste en una población de células cancerosas que son atacadas a lo largo del tiempo por un sistema de reconocimiento, es decir, el sistema inmunitario. Si las células cancerosas utilizan una estrategia pasiva, la población cancerosa no cambia el ritmo al que intenta evadir el sistema inmunitario a lo largo del tiempo. Por el contrario, en una estrategia de evasión activa, la población cancerosa posee información clave -por ejemplo, el número de TAA que posee y el nivel al que las células inmunitarias atacan activamente a los TAA- y basa su estrategia en estos datos.

El equipo modeló y resolvió matemáticamente el comportamiento dinámico de ambas estrategias -las tácticas de evasión pasiva y activa- y las probó con diferentes entornos inmunitarios a lo largo del tiempo, desde un entorno inmunitario hostil con un gran número de células inmunitarias que reconocen todos los TAA hasta un entorno menos hostil con menos células que reconocen los TAA.

«Los cánceres que se adaptan activamente son, por diseño, más difíciles de tratar. Pero nuestro modelo predice que, en algunos casos, las poblaciones de cáncer pagan una penalización por sobrevivir hoy contra el reconocimiento inmunitario que podría ser objeto de tratamiento terapéutico mañana», afirma George. «Este trabajo inicial motiva una intrigante dirección de investigación para identificar estrategias terapéuticas óptimas contra enfermedades adaptativas o ‘inteligentes’ como el cáncer, y sin duda se beneficiarán de la modelización matemática».

El modelo proporciona información clave que, según los autores, será esencial para aprovechar el potencial de la inmunoterapia para mantener a raya los tumores de cada paciente durante muchos años.

«Derrotar a una población de cáncer altamente adaptable ha supuesto un reto persistente para investigadores y clínicos. El progreso será posible gracias a los descubrimientos fundamentales sobre el comportamiento del cáncer y a los conocimientos adicionales concomitantes sobre su evasión», afirma Herbert Levine, coautor del estudio y profesor adjunto de Bioingeniería en la Universidad Rice de Houston (EE.UU.) y catedrático distinguido de Física y Bioingeniería en la Universidad Northeastern de Boston (EE.UU.).

Abril 25/2023 (MedicalXpress) – Tomado de Oncology & Cancer Immunology  Copyright Medical Xpress 2011 – 2023 powered by Science X Network

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Incluso mientras dormimos, el cerebro no descansa por completo. Sorprendentemente, el flujo sanguíneo en un cerebro dormido puede ser mayor que cuando está en estado de vigilia. Esto permite al cerebro eliminar los metabolitos de desecho, lo que es importante para prevenir el desarrollo y la progresión de disfunciones neurológicas como la demencia. Sin embargo, se desconoce el mecanismo exacto por el que el cerebro dormido aumenta el flujo sanguíneo.

Investigadores dirigidos por el director Kim Seong-Gi, del Centro de Investigación en Neurociencia por Imagen del Instituto de Ciencias Básicas de Corea del Sur, descubrieron recientemente los secretos de este fenómeno. Se descubrió que un tipo de neurona inhibidora llamada «neurona parvalbúmina (PV)» segrega un material llamado «sustancia P» que es responsable de la vasodilatación y el control del flujo sanguíneo al cerebro. El estudio se publica en la revista Proceedings of the National Academy of Sciences.

A diferencia de otras neuronas de subtipo inhibitorio, antes se pensaba que las neuronas PV GABAérgicas no liberaban sustancias vasoactivas, de ahí que su papel en la regulación del flujo sanguíneo haya sido controvertido. Para investigar el papel de las neuronas FV en la regulación del flujo sanguíneo, los investigadores expresaron una proteína opsina llamada canalrodopsina-2 (ChR2) en neuronas FV de ratón, y activaron selectivamente las neuronas FV mediante estimulación luminosa.

Las respuestas vasculares a la activación de las neuronas PV se midieron mediante imágenes ópticas de campo amplio e imágenes de resonancia magnética funcional (fMRI). Además, para identificar el papel de las neuronas PV en el flujo sanguíneo bajo anestesia, los investigadores utilizaron ketamina/xilacina para dormir a los animales.

Los resultados mostraron que, en animales ligeramente anestesiados, la estimulación de las neuronas PV inducía vasoconstricción y una disminución del flujo sanguíneo. A continuación, se producía una vasodilatación lenta y un aumento del flujo sanguíneo desde 20 segundos hasta un minuto después del cese de la estimulación. Por otra parte, en los animales activos, la actividad de las neuronas PV sólo provocó una reducción del flujo sanguíneo. Esto significa que las neuronas FV disponen de dos mecanismos diferentes para controlar el flujo sanguíneo cerebral, dependiendo de si el cerebro está despierto o dormido.

Además, los investigadores también descubrieron el mecanismo que subyace a la vasodilatación lenta observada tras la estimulación optogenética. Cuando se activan las neuronas PV, se inhiben las neuronas excitadoras cercanas, lo que provoca vasoconstricción y reducción del flujo sanguíneo. Al mismo tiempo, se descubrió que estas neuronas PV liberan un péptido denominado «sustancia P», responsable de la vasodilatación lenta observada. La sustancia P activa unas células denominadas neuronas GABAérgicas sintasa de óxido nítrico (nNOS) que segregan óxido nitroso, un conocido vasodilatador.

La presente investigación desvela por fin los factores que controlan el flujo sanguíneo al cerebro durante el sueño, y el papel hasta ahora desconocido de las neuronas PV en este proceso. El director Kim afirmó: «Nuestra investigación sugiere una nueva dirección de investigación sobre los mecanismos de control del flujo sanguíneo cerebral, con posibles implicaciones en el tratamiento del insomnio y los trastornos del sueño.»

Abril 25/2023 (MedicalXpress) – Tomado de Neuroscience  Copyright Medical Xpress 2011 – 2023 powered by Science X Network

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Un proyecto de investigación internacional, en el que participa la Universidad de Oviedo, ha permitido identificar el papel concreto de los interferones como marcador clínico en el abordaje del lupus eritematoso sistémico (LES) para predecir la respuesta al tratamiento, así como otras posibles aplicaciones en diferentes enfermedades reumáticas y musculoesqueléticas.

Si bien existen numerosos trabajos que estudian desde hace décadas el papel de los interferones en diversas patologías de este tipo, como lupus eritematoso sistémico (LES), artritis reumatoide, esclerosis sistémica o síndrome de Sjögren, entre otras, su utilidad en la clínica ha quedado muy limitada por la falta de evidencia científica robusta en una dirección concreta, según Javier Rodríguez-Carrio, profesor del área de Inmunología de la Universidad de Oviedo y autor principal de este estudio, que acaba de ser publicado en Annals of the Rheumatic Diseases.

Para tratar de dar respuesta a este interrogante, un grupo internacional de investigadores desarrolló un proyecto al amparo de la Alianza Europea de Asociaciones de Reumatología (Eular), organismo de referencia en reumatología a nivel europeo, y que ha sido coordinado desde la Universidad de Leeds (Reino Unido), el centro médico Erasmus (Países Bajos) y con participación de la Universidad de Oviedo.

El proyecto se desarrolló en dos fases. Inicialmente se realizó una revisión sistemática de toda la literatura científica al respecto, con identificación de más de 10.000 trabajos científicos que abarcaban diferentes aplicaciones de los interferones en 11 enfermedades reumáticas y musculoesqueléticas, de los cuales 400 fueron los que cumplieron con los criterios de calidad necesarios para ser incluidos en esta revisión. En una segunda fase, el grupo de investigadores desarrolló un trabajo de consenso y elaboración de recomendaciones siguiendo una metodología definida basada en la evidencia.

¿Por qué tantos estudios sobre interferones?

«El primer resultado que nos sorprendió fue la enorme cantidad de ensayos propuestos para analizar los interferones», señala Javier Rodríguez-Carrio, quien explica que esto es debido en parte a que estos mediadores pueden no solo ser analizados por sus niveles, es decir, la cantidad de moléculas, sino también por sus efectos a nivel molecular y celular, o lo que es lo mismo por el tipo de respuesta que inducen sobre diversos biológicos.

Este hecho limita «enormemente la comparación entre diferentes tipos de ensayos y dificulta su estandarización» explica Javier Rodríguez-Carrio.

Esta fase sirvió además para señalar los posibles usos clínicos para los que existe un mayor respaldo científico, así como apuntar aquellas aplicaciones para las que se requiere más investigación.

«Uno de los objetivos de este trabajo era señalar específicamente qué huecos encontrábamos en la literatura científica y qué necesidades clínicas no cubiertas requerían más investigación y para qué patologías en concreto», señala el investigador. En esta fase, los investigadores concluyeron que los ensayos para medir interferones pueden tener un uso válido, sobre todo, en pacientes de lupus eritematoso sistémico (LES) para ciertas decisiones clínicas, así como en pacientes con miositis para algunos usos más concretos. La evidencia en otras patologías, como la artritis reumatoide, era menor pero enormemente prometedora».

En la segunda fase, el grupo de trabajo elaboró una lista de recomendaciones que permiten guiar desde el uso y elección racional de estos ensayos, hasta la publicación y análisis de los resultados, pasando por la recomendación de qué aplicaciones pueden ser aconsejables y cuáles no están avaladas por la literatura científica

Abril 25/2023 (Diario Médico) – Tomado de Inmunología – Estudio español en ‘Annals of the Rheumatic Disease  Copyright Junio 2018 Unidad Editorial Revistas, S.L.U.

 

  • Noticias por fecha

    noviembre 2024
    L M X J V S D
    « oct    
     123
    45678910
    11121314151617
    18192021222324
    252627282930  
  • Noticias anteriores a 2010

    Noticias anteriores a enero de 2010

  • Suscripción AL Día

  • Categorias

    open all | close all
  • Palabras Clave

  • Administración