martes, 28 de enero de 2014

Algunos de sal con la estatina, profesor?

imagen del artículoAhora está bastante claro que, en los ensayos clínicos, el patrocinio de la industria farmacéutica se asocia con exageración sustancial e importante de cómo las drogas son eficaces, y con subestimación de los efectos adversos [1] . Por supuesto, estos son efectos promedio, y así no son suficientes para etiquetar todo el mal industria. Sin embargo, hay muchos ejemplos en los que se ha demostrado la industria para tratar de subvertir la interpretación racional de los datos de los ensayos de influir en la formulación de directrices y el comportamiento de la prescripción [2] - [4] . Estos ejemplos llevan a la conclusión razonable de que los resultados de los ensayos patrocinados por la industria farmacéutica tienen que tomar con más sal que es probablemente bueno para usted.
¿Qué, pues de otra investigación utilizado para informar el proceso de desarrollo de fármacos?¿Qué pasa con la in vitro e in vivo la investigación no humano con el apoyo de la industria, ya sea en laboratorios propios de las empresas o que el fondo de las empresas en las organizaciones de investigación por contrato o en colaboraciones académicas? ¿Son las conclusiones de dichos estudios creíbles? Y ¿cómo se comparan esos resultados con la investigación "adecuada", realizado por académicos desapasionados?
Estas son preguntas importantes, pero ¿cómo podemos encontrar esta materia hacia fuera?De la misma manera que sería difícil llevar a cabo un ensayo controlado aleatorizado del efecto de vivir en Escocia en su probabilidad de sufrir un derrame cerebral, es difícil hacer un experimento para probar si la fuente de financiamiento para un estudio influye en el resultado.Tenemos que confiar en la investigación observacional (en lugar de experimental), y tenemos que ser mucho más cautelosos en nuestro enfoque y nuestras conclusiones.
En los últimos años ha habido un gran aumento en el uso de un enfoque de este tipo observacional para entender mejor las fortalezas y debilidades de los diferentes campos de investigación. La Colaboración Cochrane comenzó como un intento de dar resúmenes confiables de la efectividad de los tratamientos en ensayos clínicos humanos [5] , pero en el camino de los datos recogidos han permitido también la investigación de si los estudios con ciertas características tendían a dar exageración o subestimación de éstos Resumen los efectos del tratamiento [6] . Las ideas que surgen de este enfoque, y las mejoras en el diseño del ensayo que se han impulsado, son tan importantes como la mejora de la información para guiar las decisiones de tratamiento. Este enfoque ha sido utilizado por otras personas-en particular Lisa Bero, el autor principal del artículo de la investigación que aquí se presenta en una serie de documentos importantes que identificaron la prevalencia y el impacto del sesgo de financiación en la investigación humana [7] , [8] .
Las personas que deseen estudiar y mejorar, otros campos de investigación, tales como la investigación con animales no humanos han sido capaces descaradamente tomar prestado de la experiencia de la Colaboración Cochrane. El uso de un enfoque sistemático para la recuperación de datos que podemos ensamblar una cohorte imparcial de los estudios pertinentes, y luego observar las asociaciones entre los diferentes aspectos del diseño experimental y la magnitud de los efectos reportados. Lo que estamos buscando para las características de diseño son que se asocian consistentemente con cualquier sub o sobrestimación de los efectos biológicos.
Por supuesto, los metanálisis de los datos de los ensayos clínicos armar un pequeño número de grandes estudios de medición de un efecto del tratamiento común, mientras que en los estudios en animales por lo general hay un gran número de pequeños estudios de medición de diferentes efectos (dosis, etapa de la enfermedad, los diferentes animales) , lo que significa que el enfoque utilizado tiene que ser ajustado un poco, pero aún así, el enfoque ha sido fructífera.
Para un gran número de modelos de enfermedad animal no humano, estudia en riesgo de sesgo (por ejemplo, los que no tienen asignación al azar o cegamiento) dan estimaciones más grandes de los efectos del tratamiento [9] - [13] , la mayoría de los estudios se encuentran en riesgo de sesgo [9] - [14] , factor de impacto y el diario no es garantía de bajo riesgo de sesgo[15] . Estos resultados influyeron en el desarrollo de normas de información para el accidente cerebrovascular [16] y la investigación animal no humano más general [17] , [18] , y estos están comenzando a hacer un impacto.
Una de las dificultades en el uso de meta-análisis es en la elaboración de cómo combinar diferentes medidas de resultado, a menudo de diferentes animales. Un aumento de 0,1 mm en el arco de ateroma aórtico es probablemente menos importante en un escocés que en un ratón, por lo que necesitamos para transformar los datos en una escala común. En la diferencia de medias estandarizada (DME) meta-análisis, el efecto ha sido estandarizada a la variación observada [19] . Porque-en grandes estudios al menos-esta variación es una propiedad de la biología que se está estudiando en lugar de de la escala que se utiliza, que permite que los efectos pueden convertir en una escala común. Así, a modo de ejemplo: en 2012 la variación de la temperatura media mensual a través de 258 estaciones meteorológicas en California fue 12.55 ° F, o 6,98 ° C-de la que podemos calcular que 1 ° C es igual a 1,80 ° F, o 0,14 unidades estandarizadas, y así tenemos una escala común.
Si bien este enfoque es muy útil en los meta-análisis clínicos (donde el gran número de participantes en cada grupo permite una estimación precisa de la varianza de la población), se vuelve menos útil cuando el tamaño del grupo es pequeño, porque aquí la variación observada es menos preciso estimación de la varianza de la población. Esto introduce un error de medición para la conversión entre diferentes escalas.
Además, esta variación observada representa una combinación de la variación biológica subyacente en los fenómenos que se miden y de la variación que surge de error de medición y de la forma en que se realizó el experimento. Experimentos con pocos errores de medición y el buen cumplimiento de sus protocolos, por lo tanto tienen una menor varianza total que aquellos con alto error de medición y el mal cumplimiento del protocolo. Dado que la varianza es el denominador en el cálculo del tamaño de las diferencias entre los grupos, cualquier tamaño del efecto dado será artificialmente mayor en los estudios con bajo error de medición y la variabilidad experimental.
La demostración de que los experimentos con baja calidad metodológica pueden dar estimaciones infladas de efectos de tratamientos, y que la mayoría de los experimentos parecen ser de baja calidad metodológica, lleva a la pregunta de quiénes podrían ser los peores delincuentes. Dado que los ensayos clínicos patrocinados por la industria farmacéutica parecen estar en mayor riesgo de sesgo que otros, un supuesto perezoso podría ser que su investigación animal no humano se confunde de manera similar, en su intento de apresurar compuestos al mercado para maximizar la rentabilidad.
Sin embargo, algunas pajitas en la pista de viento no podría ser el caso. Una forma de las empresas a identificar dianas de medicamentos es mediante la lectura de lo que hay en la literatura y, si algo se ve interesante, tratando de replicar los resultados. Los científicos de Bayer encontraron inconsistencias en 43 de 65 estudios cuando trataron de replicar en casa[20] . Los científicos en la hematología y los departamentos de oncología en Amgen fueron capaces de replicar los resultados en sólo seis de 53 publicaciones identificadas como estudios de "hito" [21] . Cuando el Instituto de Desarrollo de la Terapia ALS trató de replicar los resultados publicados de la eficacia del fármaco en el modelo de la superóxido dismutasa de ratón de la enfermedad de la motoneurona (esclerosis lateral amiotrófica), ni una sola de las siete intervenciones conservan la eficacia [22] . Aplicación de las normas de buenas prácticas de laboratorio es mucho más avanzada en los laboratorios de la industria, y para algunos tipos de experimentos de estas normas son un requisito legal. De hecho, un investigador científico fue encarcelado recientemente en Escocia para el fraude de investigación [23] . Entonces, ¿podría ser que la investigación patrocinada por la industria es en realidad más rigurosa que la investigación académica?
Tomando el ejemplo de los tratamientos con estatinas para ateroma, David Krauth, Andrew Anglemyer, Rose Philipps, y Lisa Bero frente a este problema de frente [24] . Usando revisión sistemática se identificaron estudios en animales no humanos que describen la eficacia de las estatinas. Su metodología es seguro, con un a priori plan de análisis, la inclusión clara y criterios de exclusión, y duplicar la extracción de las variables claves de las publicaciones identificadas. Ellos encontraron bajos niveles de denuncia de las medidas conocidas para reducir el riesgo de sesgo, con evaluación cegada de los resultados reportados en sólo 22 de los 49 estudios, y no hay estudios que informaron asignación al azar completo o un cálculo del tamaño de muestra. De modo tranquilizador, la calidad de la información parece haber mejorado un poco desde la publicación de las directrices llegar en 2010. Sin embargo, todavía hay claramente un largo camino por recorrer.
Sobre la cuestión de la influencia del patrocinador del estudio, Bero y sus colegas identificaron 19 estudios patrocinados en su totalidad o en parte por la industria, 28 patrocinado por fuentes ajenas a la industria, y 16 con ninguna declaración de patrocinio o una declaración de ningún patrocinio. Centrándonos en los estudios donde se conocía el estado de patrocinio, se encontraron con que los resultados de nueve de los 19 estudios patrocinados por la industria (43%) y 18 de 28 estudios no patrocinados por la industria (72%) apoyaron la eficacia de las estatinas. Este hallazgo se confirmó en un subgrupo de 38 estudios con datos suficientes para hacer una meta-análisis; se informaron las estatinas para mejorar el resultado por 0,73 unidades de SMD en los estudios patrocinados por la industria, mientras que en los estudios con otro patrocinio de la mejora fue de 1,99 unidades de SMD. Esta diferencia es muy significativa-calculo un exceso de eficacia en estudios no patrocinados por la industria de 173% (95% intervalo de confianza del 52% al 293%). En pocas palabras, los estudios con la no-informe de la industria de patrocinio que las estatinas son casi tres veces más eficaz que hacer los estudios patrocinados por la industria.
Tan interesante, sin embargo, es el análisis de la interpretación que en las conclusiones de cada uno de los estudios incluidos. De los 19 estudios patrocinados por la industria, la conclusión del 18 favoreció el uso de las estatinas (95%), mientras que de los 28 estudios no patrocinados por la industria, sólo 21 lo hicieron (75%). Esto llama la atención por dos razones: en primer lugar, en ambas cohortes la conclusión parece ser más entusiasta que los resultados presentados, y en segundo lugar, este fenómeno parece ser mucho más marcada en los estudios con patrocinio de la industria.
Entonces, ¿qué está pasando? Por supuesto, estas diferencias observadas pueden deberse a alguna otra diferencia, no medida entre los estudios que contribuyen, pero los análisis se preespecificado y parece poco probable que un factor de confusión tales. Si los estudios patrocinados por la industria fueron de consistentemente mayor varianza, a continuación, los tamaños del efecto observados se parecen más pequeños en unidades de SMD, pero no hay razón para sospechar que este fue el caso aquí.
Se parece, por tanto que los resultados de la investigación patrocinada por la industria son más conservadoras que los patrocinados por fuentes ajenas a la industria, pero la interpretación de estos datos es, por el contrario, menos conservador. ¿Por qué puede ser esto?
En una serie de análisis con una variable los autores examinaron el impacto de tres factores de la asignación al azar, el cegamiento y la contabilidad de todos los animales que podrían aumentar el riesgo de sesgo. Incluso cuando esto se tuvo en cuenta, los estudios no patrocinados por la industria dieron estimaciones significativamente más altos de eficacia, lo que implica que otros factores eran responsables. Esto puede ocurrir si el "azar" y "cegamiento" cosas diferentes destinados en los estudios patrocinados por la industria, o por el impacto de algún otro tipo de riesgo, no medida de sesgo, oa través de algún gestalt de los estudios patrocinados por la industria, que no se describe por las variables analizadas . Por otra parte, los estudios académicos que exploran poder fisiopatología eligieron circunstancias que maximizan el tamaño del efecto observado, para dar mayor poder estadístico para las pruebas de inhibición de experimentos de esos efectos.
En mi opinión, es probable que el impacto de los enfoques de la gestión de la investigación y el marco normativo que se aplica a algunas partes de la industria, en particular normas para presentación de informes internos-se extiende a la mayor parte de la actividad de investigación animal no humano con el que están involucrados, ya sea o no se lleva a cabo en el local. Es decir, el trabajo con animales no humanos patrocinada por la industria es probable que sea realizado y reportado a una mayor calidad, y para ser de bajo riesgo de sesgo, que el trabajo patrocinado por otros. Esto explicaría la industria de dificultad ha de replicar los resultados de la investigación realizada en los laboratorios académicos. Sin embargo, la interpretación, o "spin", con el que se presenta el trabajo patrocinado por la industria no parece ser un problema, con la exageración de las conclusiones para favorecer el fármaco se está probando.
Esto tiene sentido-para la industria hay un interés financiero claro en estar totalmente seguro de los datos de los animales no humanos de un compuesto antes de embarcarse en un ensayo clínico, por lo que es una motivación para conseguir los datos preclínicos tan buenos como pueden ser . Los ensayos clínicos son caros, y por lo que vale la pena invertir mucho tiempo y esfuerzo, y tal vez incluso la financiación de "fase 3" multicéntrico estudios en animales [25] - [27] , para maximizar las posibilidades de éxito. Pero cuando ese dinero se ha gastado (y para las estatinas que en gran medida ha sido), la motivación es presentar un análisis de los datos disponibles, que es la más favorable para el uso clínico. Por lo tanto, si un medicamento es un pavo, tratar de averiguarlo antes de gastar una fortuna llevándola a clínica de prueba y si es demasiado tarde para eso, tratar de convencer a todos de que los datos de los animales y los ensayos clínicos no humanas que apoyan una eficacia deMeleagris gallopavo (comúnmente conocido como el pavo salvaje) son más convincente de lo que podrían parecer a primera vista.
Por el contrario, los investigadores académicos no son recompensados ​​por la maratón, pero para el sprint para una publicación de alto impacto que describe una parte del rompecabezas, no para el cuerpo de trabajo que muestra la imagen completa. Para ellos, la eficacia sustancial en un solo estudio es, en algunos aspectos, un fin más que un comienzo.
Bero y sus colegas han hecho una contribución importante, sus hallazgos sugieren que los investigadores académicos podrían aprender las buenas prácticas en la administración, conducción y reporte de la investigación con animales no humanos de los colegas de la industria, y refuerza la importancia de que los lectores de los informes de investigación que se centran en métodos y datos, más que en los resúmenes y conclusiones.

Referencias

  1. 1.Lundh A, Sismondo S, Lexchin J, Busuioc OA, Bero L (2012) el patrocinio de la Industria y de los resultados de investigación. Base de Datos Cochrane de Revisiones Sistemáticas 12: MR000033 doi: 10.1002/14651858.MR000033.pub2.
  2. 2.Gotzsche PC (2013) medicamentos mortales y el crimen organizado: cómo las grandes empresas farmacéuticas ha corrompido la asistencia sanitaria. Londres: Radcliffe Publishing.
  3. 3.Angell M (2005) La verdad sobre las compañías farmacéuticas. Nueva York: Random House.
  4. 4.Goldacre B (2013) Mal farmacéutica: ¿cómo se rompe la medicina, y cómo podemos solucionarlo. London: Fourth Estate.
  5. 5.Chalmers I (1993) La Colaboración Cochrane: la preparación, el mantenimiento y la difusión de las revisiones sistemáticas de los efectos de la atención sanitaria. Ann NY Acad Sci 703: 156-163. doi: 10.1111/j.1749-6632.1993.tb26345.x
  6. 6.Schulz KF, Chalmers I, Hayes RJ, Altman DG (1995) La evidencia empírica de sesgo: dimensiones de la calidad metodológica asociada con las estimaciones de los efectos del tratamiento en ensayos controlados. JAMA 273: 408-412. doi: 10.1001/jama.1995.03520290060030
  7. 7.Barnes DE, Bero LA (1998) ¿Por qué los artículos de revisión sobre los efectos en la salud del tabaquismo pasivo llegar a conclusiones diferentes. JAMA 279: 1566-1570.doi: 10.1001/jama.279.19.1566
  8. 8.Bero LA, Rennie D (1996) Factores que influyen en la calidad de los estudios farmacológicos publicados. Int J Technol Evaluar Cuidado de la Salud 12: 209-237. doi: 10.1017/s0266462300009582
  9. 9.Macleod MR, van der Worp HB, Sena ES, Howells DW, Dirnagl U, et al. (2008) La evidencia de la eficacia de NXY-059 en la isquemia cerebral focal experimental es confundida por la calidad del estudio. Carrera 39: 2824-2829. doi: 10.1161/strokeaha.108.515957
  10. 10.Vesterinen HM, Sena ES, Ffrench-Constant C, Williams A, Chandr