¿Quién haría eso?

Hace unos días descubrí que mi nivel es muy bajo y que no tengo ni idea de interpretar meta-análisis. Como mínimo es interesante, de cara a que los lectores de este blog no sean engañados por mi incompetencia. Si he metido la pata, mejor que se sepa.

Ahora cuento de qué estoy hablando. Empiezo por el principio. Hace unas semanas me encontré con el escrito de un señor llamado Joseph Agu (ver) que alababa un meta-análisis que según él mostraba que un aumento en el porcentaje de carbohidratos conducía a un menor riesgo de obesidad.

dos estudios publicados en el último par de semanas sirven para cerrar firmemente el ataúd de los fanáticos de las dietas bajas en carbohidratos. La primera fue una revisión sistemática y un metanálisis publicado en el British Medical Journal hace dos semanas, donde Sartorius y sus colegas se pusieron a prueba la asociación entre las dietas altas y bajas en carbohidratos y la obesidad […] esta vez se encontró lo contrario de los estratos 1; que el aumento del porcentaje de carbohidratos en la dieta conduce a un ligeramente menor riesgo de obesidad (fuente)

conduce a un ligeramente menor riesgo de obesidad”. Causa y efecto. Para él, la demostración definitiva de que las dietas bajas en carbohidratos son incluso engordantes. Y, por supuesto, el estudio no iba sobre dietas bajas en carbohidratos.

Así que le eché un vistazo al meta-análisis y publiqué una entrada con mi análisis sobre ese estudio.

El texto de Agu que dio origen a esa entrada aparece como primer comentario de la misma.

No voy a repetir ahora los argumentos de esa entrada, pero básicamente quiero llamar la atención sobre dos hechos:

  1. A menudo se usa el término “meta-análisis” para dar credibilidad o relevancia a los resultados. Se juntan estudios basura en una única recopilación y se sacan conclusiones que no se sostienen cuando se mira con detalle y espíritu crítico el meta-análisis. Hay una decena de ejemplos en el blog, algunos de ellos enlazados al final de esta entrada.
  2. Casi siempre se usa la palabra “riesgo” para engañar a la gente dando a entender una relación causa-efecto (ver).

El segundo de los engaños es realmente sangrante: es un ejemplo de libro de falacia de ambigüedad:

Falacia de ambigüedad: Se comete cuando en el curso de una argumentación, al menos uno de los términos es utilizado en más de un sentido, o bien una frase esta construida de manera inadecuada.

El cociente de riesgo en el ámbito estadístico es el cociente entre la frecuencia de aparición de una determinada condición (por ejemplo tener síndrome metabólico) en un grupo de personas que tiene ciertas características y la de otro grupo que tiene otras características. Este concepto no implica causalidad. Por ejemplo, la frecuencia de enfermedad de arteria coronaria en hombres calvos es mayor que en los que no son calvos (ver). Usando terminología estadística hablaríamos de que ser calvo está relacionado con un mayor riesgo de padecer esa enfermedad. Pero ni es ser calvo lo que lleva a padecer la enfermedad ni un crecepelo te protege de la enfermedad. No necesariamente. Porque ese “riesgo” no significa que una cosa cause la otra, ni de que sea mayor el riesgo se deduce que sea aconsejable hacer algo para reducir ese “riesgo” definido de esa manera.

Pero en el uso del término “riesgo” hay falacia de ambigüedad, pues se introduce con su definición estadística, pero la gente de la calle no maneja esa definición de “riesgo”. Para el común de los mortales si algo aumenta tu riesgo de padecer una enfermedad, ese algo te está poniendo en peligro y, por tanto, es buena idea reducir ese riesgo. Porque un aumento de riesgo significa que “es más probable que suceda un daño”. Se da a entender causa y efecto, porque si no hay causa-efecto no es más probable. Y con esa falacia de ambigüedad se persigue inducir a la gente a actuar para reducir el riesgo. Todos conocemos este ejemplo: el médico te dice que tener el LDL elevado te pone en riesgo (¿o te dice que aumenta tu riesgo?) de enfermedad cardiovascular así que te da una pastillita para bajar el riesgo. Y crees que estás protegiendo tu salud. Del término riesgo se deduce que existe relación causa-efecto y eso se usa para justificar un tratamiento médico (ver).

Otro ejemplo:

imagen_1916
Estudios observacionales, se supone que no se puede deducir una relación causa-efecto, pero para eso tienen la palabra “riesgo”, para poder engañar a la gente desinformada. Por otro lado, si no se pretende dar a entender una relación causa-efecto, ¿para qué se cuenta? Si le dices a alguien que el síndrome metabólico es más frecuente en los que más consumen carne roja frente a los que menos consumen, ¿no pretendes dar a entender que una cosa causa la otra? Que no nos engañen: ¿para qué se contaría si no es para dar a entender una relación causa-efecto? Porque sin relación causa-efecto esa información carece de interés.

En definitiva, para esto sirve la epidemiología: para engañar. Charlatanería con respaldo oficial.

No hay nada pecaminoso en comprobar si los datos se correlacionan. No hay nada pecaminoso en la búsqueda de variables de confusión. El pecado viene al creer que una hipótesis causal es cierta porque en tu estudio ha salido un resultado positivo, o creer lo contrario porque tu estudio fue negativo. Sander Greenland

Discrepo de esta cita. Los que crean los estudios basura tienen gran parte de la culpa del mal uso que se hace de ellos una vez publicados.

Pero la epidemiología no es la única forma en la que se usan los meta-análisis para engañar. Otro ejemplo, éste con ensayos de intervención:

Y si miras los estudios incluidos en el meta-análisis te das cuenta de que es una tomadura de pelo. Pero ahí está el tipo en twitter lanzando la desinformación y dándole “credibilidad” al mensaje con el término “meta-análisis”.

El caso es que un dietista-nutricionista llamado Eduard Baladia se pregunta en twitter que quién usaría un meta-análisis para dar a entender una relación causa-efecto a partir de datos observacionales.

imagen_1917

Ya he puesto tres ejemplos reales de gente que desinforma en las redes sociales dando a entender relaciones causa-efecto en base a meta-análisis que no permiten extraer las pretendidas conclusiones. En los tres casos, estudios basura cuyas conclusiones coinciden con la ideología de quien los difunde.

Mi mensaje es que no nos dejemos engañar por el término meta-análisis. Que sea un meta-análisis no significa nada en sí mismo: hay que examinar el detalle de los estudios que forman parte de los meta-análisis. No hacerlo es un error.

Por ejemplo, en el que citaba antes de la carne roja nos dicen que han incluido la carne roja PROCESADA como datos de la carne roja:

‘Red meat’ included red meat and processed red meat

Y así se comprueba al hojear un poco los estudios observacionales incluídos en ese meta-análisis. Pero luego en el abstract presentan los datos por separado de carne roja y carne procesada, cuando, como acabamos de ver, dentro de “carne roja” también se incluía carne (roja) procesada:

The pooled RR for metabolic syndrome of the highest versus lowest category of meat intake was 1.14 (95% CI: 1.05, 1.23) for total meat, 1.33 (95% CI: 1.01, 1.74) for red meat, 1.35 (95% CI: 1.18, 1.54) for processed meat, and 0.86 (95% CI: 0.76, 0.97) for white meat.

La persona que nos dice que la carne roja te pone en riesgo de síndrome metabólico ni matiza que el dato de la carne roja incluye carne procesada ni te dice que el risk ratio es de 1.33. Carne procesada… así que estamos poniendo sobre la mesa muchos más factores que “carne roja”: económicos, sociales, el efecto del “consumidor irresponsable” (que consume carne roja y carne roja procesada frente al consejo de los “expertos” de no hacerlo). Y aún así, risk ratio de 1.33. Suficiente para desinformar en twitter:

imagen_1916

¿Qué entiende una persona de la calle cuando lee “mayor riesgo de”? ¿Qué es lo que está diciendo ese mensaje? ¿Qué persigue el autor del texto? No sabemos qué causa qué, pero es un hecho que se usa la epidemiología para intentar engañar a la gente.

Y, por cierto, los autores de ese meta-análisis de estudios observacionales no cometen el error de deducir causa-efecto, porque los buenos científicos no hacen esas cosas. ¿Quién haría eso?

Our findings suggest that the effect on health is different by the types of meat and also support current common dietary guidelines to decrease the intake of red and processed meat and increase the consumption of white meat.

Nuestros hallazgos sugieren que el efecto sobre la salud es diferente según los tipos de carne y también respalda las pautas dietéticas comunes actuales para disminuir la ingesta de carne roja y procesada y aumentar el consumo de carne blanca.

Ah, espera, ¡sí que lo hacen!

A donde quería llegar es que al parecer mi entrada era de nivel muy bajo y no tengo ni idea de meta-análisis:

imagen_1918

Lo veo realmente interesante. Me gustaría saber dónde he metido la pata en esa entrada. A la gente que lee este blog debería resultarle interesante conocerlo. ¿Cuáles de mis argumentos son erróneos? Tienen que ser muchos, porque la entrada es de nivel muy bajo. Y estoy de acuerdo en que no sé nada de meta-análisis. No es falsa modestia, es la realidad. Pero me gustaría saber qué parte de la entrada me ha delatado en ese sentido. Y también tengo curiosidad por saber qué hice mal citando a Ioannidis. También tiene que haber sido algo muy grave y fácil de explicar.

there is massive production of unnecessary, misleading, and conflicted systematic reviews and meta-analyses. Ioannidis JP

existe una ingente producción de revisiones y meta-análisis innecesarios, engañosos e inconsistentes

Leer más:

Anuncios

Guyenet refuta que el azúcar engorde

imagen_0411

Supongamos que lo que engordas cada año es proporcional a la cantidad de azúcar que consumes. O en otras palabras, si consumes 100 g/d engordas unos kilos, y si consumes 50 g/d engordas la mitad que en el caso anterior.

Supongamos que has estado consumiendo cada vez más azúcar y estabas engordando. Has llegado a consumir 110 g/d de azúcar. Pero en los últimos 15 años has ido bajando progresivamente tu consumo, de forma que actualmente consumes un poco menos: 95 g/d. ¿Cómo es de esperar que evolucione tu peso corporal? Bajo el supuesto de que el azúcar te está engordando, si reduces un poco el consumo, seguirás subiendo de peso, pero a una velocidad ligeramente menor.

Es lo que muestro en la siguiente gráfica, calculada suponiendo que el engorde es directamente proporcional a la ingesta de azúcar. En azul tenemos el consumo de azúcar (gramos al día); con estrellas tendríamos el peso corporal que habríamos tenido de no haber cambiado la tendencia en nuestro consumo de azúcar; y en naranja tenemos la evolución real del peso corporal (cuando en lugar de consumir cada vez más azúcar hemos reducido ligeramente el consumo en los último 15 años, según indica la curva azul):

sgsp

En resumen, si el azúcar es engordante, ¿qué cabe esperar si reduzco un poco el consumo? Seguir engordando, pero a una velocidad un poco menor. Es lo que confirma la curva naranja en la gráfica anterior.

Hace unos días (ver) Stephan Guyenet, PhD quiso refutar la idea de que el azúcar nos está engordando. Para él, todo es tan sencillo como que comemos demasiado porque nos gusta demasiado comer, es decir, una versión más de la pseudocientífica teoría del balance energético.

Uno de los argumentos que presenta Guyenet es que en los últimos 15 años se ha reducido el consumo de azúcar y, según él, el hecho de que la tasa de obesidad no sólo no se haya reducido, sino que haya seguido aumentando, hace “altamente improbable” que el azúcar sea la causa principal de la obesidad. La gráfica que presenta es la siguiente:

Es decir, su planteamiento es que si consumir 110 g/d engorda, consumir entre 95 y 110 g/d ¡debería hacernos adelgazar! Y como eso no es lo que ha sucedido, según él, se deduce que es altamente improbable que el azúcar sea la causa principal de la obesidad.

Americans have been reining in our sugar intake for more than fourteen years, and not only has it failed to slim us down, it hasn’t even stopped us from gaining additional weight. This suggests that sugar is highly unlikely to be the primary cause of obesity or diabetes in the United States, although again it doesn’t exonerate sugar.

Su “razonamiento” es que si golpear diez veces nuestra cabeza contra la pared produce dolor, golpear sólo nueve veces no debe provocar dolor: debe ser placentero. Y si no lo es, si te sigue produciendo dolor, aunque sea en menor medida, para él se demuestra que no hay relación entre los golpes contra la pared y el dolor. Un argumento absolutamente estúpido.

Es más: fijémonos que entre 1980 y 1999 el consumo de azúcar estuvo en el rango de 85 a 110 g/d y el peso corporal aumentaba. Guyenet propone que entre 2000 y 2013, cuando el consumo estuvo entre 95 y 110 g/d el peso corporal tenía que bajar.

Por otro lado, nótese que Guyenet interpreta los datos de la gráfica anterior como si se tratara de un experimento controlado, cuando en realidad no son más que datos observacionales. No se ha realizado ningún experimento.

Nótese también que la curva azul que presenta Guyenet no empieza en cero g/d, lo que hace parecer el supuesto descenso en el consumo de azúcar mayor de lo que realmente es.

Edito (18/1/2017): hay una segunda parte de este artículo, con explicaciones más detalladas.

Leer más:

Carne roja, ¿mortífera o letal?

Estudio de 2013, de título “Meat consumption and mortality – results from the European Prospective Investigation into Cancer and Nutrition“.

Es un estudio observacional en el que se analiza la dieta y mortalidad en 448,568 personas, hombres y mujeres.

Clasifican a la gente según la cantidad de carne roja que consumen, y el resultado es que si, por ejemplo, 2 de cada 100 personas muere de cáncer en el grupo de menor consumo, si consideramos a las personas que consumen 100g diarios más de carne roja la mortalidad por cáncer sería 2 de cada 100 personas.

Selección_478

Ésa sería la conclusión del análisis: el consumo de carne roja NO guarda relación alguna con el cáncer.

No perdamos de vista que esto es un estudio observacional. Estos estudios no permiten deducir que una cosa cause otra, salvo en casos extremos. Si hablásemos de tabaquismo y cáncer, ese valor resaltado en verde andaría en el entorno de 20-30, en lugar de 1. Y si, como es el caso, los valores son próximos a 1, lo que se puede concluir es que probablemente no hay relación causal. Si la carne roja causase cáncer los valores no andarían cerca del 1 en ningún estudio. Si hubiese algo, habría algo.

Fijémonos en cómo los autores de este estudio no han tomado como referencia el grupo de menor consumo de carne roja, sino el siguiente. ¿Por qué? Para tratar de inflar las cifras del grupo de mayor consumo de carne roja. En el caso del cáncer el hazard ratio (cociente de riesgo) de ese grupo habría sido 1.16 de haber tomado como referencia al grupo de menor consumo, en lugar del 1.21 que aparece en la tabla por usar una referencia diferente. No es que cambie mucho, pero es evidente que eso es lo que han buscado.

El principal problema de los estudios observacionales es que son los participantes los que escogen lo que comen, y eso hace imposible sacar conclusiones en la mayoría de los casos. Las personas que más carne roja consumen se parecen entre sí y se diferencian de los que menos consumen. Beben más alcohol, consumen más carne procesada, fuman más y tienen menos formación universitaria. Los “investigadores” intentan anular los efectos de todos esos factores, pero creer que lo consiguen es un acto de fe. Si a eso le añadimos la escasa fiabilidad de los métodos empleados para registrar qué consumen los participantes (ver), sólo podemos concluir que el intento de sacar conclusiones de cocientes de riesgo cercanos a 1 es abusar del desconocimiento de la gente llana en estos temas. O lo que es lo mismo: engañar y manipular a la gente.

La epidemiología no entra en el concepto de ciencia. Sus resultados no son científicos. Es tan científica como la astrología.

Con esta entrada de Tom Naughton puedes entender cómo de fiables son los estudios epidemiológicos. La epidemiología no es ciencia, es un chiste.

Un ejemplo: este estudio dice que el cáncer colorrectal es más frecuente entre los vegetarianos que entre los consumidores de carne, mientras que este otro concluye exactamente lo contrario.

Y si estás pensando en que juntar varios estudios epidemiológicos es más fiable que uno suelto, discrepo. Los problemas de estos estudios no desaparecen por acumular los resultados de varios de ellos. Perdón por ser soez, pero si un estudio es mierda, juntando varios lo que tienes es mucha mierda. Negaré haberme expresado en esos términos. Richard Feinman lo explica de forma más educada: “el meta-análisis es al análisis lo que la meta-física es a la física”. Podemos obtener de forma consistente que los que comen una cantidad extrema de carne roja al día tienen peor salud que los que comen una cantidad sensata. Puede que todos los estudios observacionales digan lo mismo, pero juntar todos esos estudios no elimina el problema de raíz, presente en todos ellos, que es la falta de aleatorización (i.e. asignación al azar) de las dietas. El argumento de que “esto se sabe desde hace muchos años” hay que interpretarlo correctamente: hay grupos de presión que llevan muchos años intentando colar como evidencia científica lo que no lo es.

¿Y las carnes procesadas?

Si la carne no tiene ningún problema, ni roja, ni blanca, ¿qué pasa con la “carne procesada”? En mi opinión, la respuesta depende del producto. Mira la lista de ingredientes, y si ves azúcar, gluten, cereales, soja, fécula de patata, aceites de semillas (girasol, soja, etc.), carragenanos, etc. no te lo comas. No por lo que diga la OMS —que ya deberías saber que no es de fiar— sino porque ese producto no es comida.

Leer más:

La guerra del lenguaje (VII): el aumento significativo del riesgo

No pesarte con regularidad aumenta significativamente el riesgo de que engordes (ver).

Hacer dieta aumenta significativamente tu riesgo de engordar (ver).

Comer carnes procesadas aumenta significativamente tu riesgo de contraer cáncer en un 20% por cada 50g de producto (ver).

Fumar aumenta significativamente tu riesgo de contraer cáncer de pulmón (ver)

Una mala dieta a los tres años de edad aumenta significativamente el riesgo de tener un cociente intelectual reducido a los 8 años de edad (ver)

Cuidado con el lenguaje. Tres problemas: “significativo“, “aumento del riesgo” y la cuantificación del riesgo.

Significativo

En lo artículos científicos casi siempre usan el adjetivo “significativo” con el significado de “estadísticamente significativo”. No quiere decir lo que las personas “normales” entendemos por significativo. Lo que dicen es “que no parece debido a la casualidad“, mientras que las personas normales entendemos que es “importante“. La realidad es que un dato insignificante puede ser significativo desde el punto de vista estadístico, y de hecho yo diría que casi siempre es así: casi siempre los científicos nos venden como significativo lo que a efectos prácticos es nimio. Su objetivo es publicar y llenar el currículum, no proporcionar información fiable. Y para eso, todo vale.

Aumento del riesgo

¿Qué interpretas cuando te dicen que hacer X “aumenta tu riesgo”? Que al hacer X estás haciendo algo peligroso. Causa y efecto: interpretas que si haces X es más probable que te suceda algo malo.

Es lo que quieren que pienses, pero no es lo que dicen los datos. Cuando alguien se expresa de esa manera, maneja datos observacionales/epidemiológicos. No pueden asegurar que te estés poniendo en peligro, aunque sin duda quieren que lo creas. Es el modus operandi de los “epidemiólogos”, que nunca van a reconocer la realidad, que es que son simples charlatanes. No hablamos de ciencia, sino de pseudociencia.

¿Qué es en realidad “aumento del riesgo”? Pongamos un ejemplo: clasificamos a las personas en dos grupos: los que se pesan regularmente y los que casi nunca se pesan. Y observamos la evolución de su peso corporal, comprobando que al cabo de un par de años los que se pesan regularmente aumentan de peso en término medio 100g menos que los que no se suelen pesar. Diferencia “significativa” (me sigues, ¿no?). Los “científicos” te dirían en ese caso que “no pesarte regularmente aumenta significativamente tu riesgo de engordar”. La manipulación del lenguaje es muy clara. Piénsalo: yo no me peso, ¿me pone eso en riesgo de engordar? ¿Crees que el ejercicio de levantar todos los días los pies 2cm para subirse a la báscula es clave para no engordar?

En este ejemplo es evidente que pesarse todos los días es un marcador, un indicador, de la determinación de una persona para perder peso. Si te pesas tan a menudo, está claro que te fijas en qué comes, que intentas cuidarte, que posiblemente estás aumentando tu actividad física, etc. No es pesarte regularmente lo que está causando un mejor control del peso. Ambos son efectos de la misma causa: cuidarte.

Pesarse regularmente tiene una relación matemática, estadística, con el peso corporal, pero no es una relación causa-efecto como la expresión “aumenta tu riesgo” nos da a entender. Eso es lo que hay que pensar cada vez que alguien habla de “aumento del riesgo”, que no es necesariamente cierto que nos estemos poniendo en peligro. Nos están engañando con el lenguaje.

La cuantificación del riesgo

Pero los “científicos” no paran ahí a la hora de engañarte. Te van a dar cifras manipuladas, impactantes, que no tienen nada que ver con la realidad.

Por ejemplo, con el tema de la carne procesada te pueden decir que consumir 50g de carne procesada aumenta en un 18% tu riesgo de sufrir en el futuro cáncer colorrectal. Un 18%: eso significa que a 1 de cada 5 le toca esa “lotería”, ¿verdad? Pues no. En primer lugar porque recordemos que nos están engañando haciéndonos creer que una cosa causa la otra, cuando el tipo de estudios que manejan no permite llegar a esa conclusión. Y en segundo lugar porque ese 18% es falso.

Supongamos que el cáncer colorrectal afecta a 50 de cada 100,000 personas (ver,ver). Eso significa que lo que han observado estos “científicos” es que entre las personas que consumen carne procesada, si consumen 50g diarios hay 59 casos por cada 100,000 personas de ese tipo de cáncer. Es decir, 9 personas más por cada 100,000. Eso es un incremento porcentual del 0,01%, aproximadamente. 0.01% no es 18%. Las cifras reales están más cerca de garantizar la inocuidad que de hacer sospechar que exista un peligro.

Solo es un ejemplo, pero la idea es ésa: no te fíes de las cifras que te dan, porque las manipulan para magnificar la importancia (ver).

En cuanto a la cuantificación del riesgo, suele entenderse que si existe una respuesta gradual con la dosis, eso refuerza la sospecha de una relación causa-efecto. Cuando los investigadores dicen que por cada 50g de producto aumenta en un 18% la mortalidad o el cáncer, están dando a entender que sí existe esa respuesta proporcional a la dosis. En el caso concreto de la carne, los datos reales dicen que es un nuevo engaño: había mayor mortalidad entre los que no consumían productos cárnicos que entre los que tenían un consumo moderado (ver). Eso no permite modelar los datos con una relación lineal ni con cualquier otro tipo de relación monótonamente creciente. Si lo que los investigadores creen estar obteniendo con sus datos es evidencia del nocivo efecto del consumo de carne sobre la mortalidad, ¿cómo explican que haya mayor mortalidad en el grupo de menor consumo que en otros grupos?

En resumen

  • Significativo no significa significativo
  • El aumento del riesgo no significa un aumento del riesgo
  • Los más habitual es que los datos numéricos que se nos dan sean un engaño estadístico

NOTA ADICIONAL 1

Los estudios que relacionan tabaco con cáncer de pulmón encuentran relaciones incuestionables: 100 veces más fuertes que las que la OMS nos quiere vender como evidencia científica contra la carne. No hablamos de lo mismo.

NOTA ADICIONAL 2

Pese al terrorismo informativo desencadenado hace unos días por la OMS contra la carne, yo voy a seguir consumiendo productos cárnicos de calidad. No soy partidario de los productos con ingredientes añadidos, como el jamón york o las salchichas de Frankfurt. En mi caso, si los consumo va a ser de forma muy esporádica. Voy a seguir consumiendo jamón serrano y embutido de carnicería sin ningún tipo de miedo (ver). En cuanto a las carnes rojas, me parece MUY razonable evitar cocinarlas directamente sobre las llamas o pasarse quemándolas en la plancha, pero no voy a modificar el consumo dejándome asustar por evidencias tan débiles como las usadas por la OMS (ver). La maniobra es conocida, pues la repiten cada equis tiempo, siempre con la misma falta de fundamento (ver,ver). El ataque de la OMS a la carne no tiene que ver con la carne, sino con la agenda política de la OMS (ver).

Leer más:

Los artículos científicos no siempre son científicos

No hace mucho, hojeando un artículo de Estadella et al. que hablaba de la lipotoxicidad (“Lipotoxicity: Effects of Dietary Saturated and Transfatty Acids“) vi que había un párrafo que relacionaba el hígado graso con el consumo de grasas saturadas. Como en mi opinión es una relación que realmente no existe (ver), empecé a revisar las referencias que se daban en el párrafo en cuestión. Lo que encontré es muy habitual: el texto es “científico” solo en apariencia. La presencia de referencias bibliográficas nos hace creer que hay algo de trasfondo en lo que nos están contando, pero como vamos a ver es imprescindible desconfiar y revisar las referencias que se nos dan.

El párrafo es éste:

Selección_316

Selección_317

Ocho referencias: [18], [59], [60], [61], [62], [63], [64] y [26].

Las analizo una a una:

Selección_318

Autocita, pues es de los mismos autores. En ratas… ni lo leo.

Selección_319

Autocita, pues es de los mismos autores. En ratas… ni lo leo.

Selección_320

Se supone que es una prueba de que el consumo de grasa saturada está asociado a un mayor contenido lipídico en el hígado. Las palabras “liver”, “hepatic” y “saturated” ni aparecen en el artículo.

Selección_321

En ratas. Ni lo leo.

Selección_322

No se presenta ninguna prueba de que exista esa relación entre grasa saturada y mayor contenido de lípidos en el hígado.

Eso sí, creen razonable limitar el consumo porque las grasas saturadas están implicadas en la lipotoxicidad. Es decir, asumen que si hay mayor ingesta habrá mayor lipotoxicidad. ¿De verdad es razonable hacer recomendaciones basadas en corazonadas? En cualquier caso este artículo no aporta pruebas de nada.

Furthermore, because polyunsaturated fatty acids appear to be protective in NAFLD, and long-chain saturated fatty acids mediate lipotoxicity, it is reasonable to limit consumption of saturated fats while increasing consumption of omega 3 fatty acids found in fish and flaxseed oil supplements as well as canola and safflower cooking oils.

Y si alguien encuentra en este estudio el dato del 10% del que hablan Estadella et al. que me lo diga, porque yo no lo he visto en el texto.

Selección_323

La palabra “saturated” solo aparece una vez en el texto para decir que los estudios epidemiológicos sugieren… No voy a seguir referencias a estudios epidemiológicos.

Selección_324

Según el artículo de Estadella et al. esta referencia demuestra que el consumo de ácidos grasos saturados es directamente proporcional al grado de esteatosis hepática. En este estudio participan 43 niños de entre 9 y 14 años. De ellos, 25 no tienen hígado graso, 9 lo tienen de grado medio y otros 9 lo tienen moderado/grave. Es decir, poquísimos datos para un estudio observacional.

Como digo, es un estudio observacional, es decir, miran el hígado, preguntan a los participantes qué comen y de ahí pretenden sacar conclusiones. En la gráfica se muestra el consumo de los distintos macronutrientes en cada uno de los grupos: sin esteatosis (barra blanca), con esteatosis leve (barra negra) y con esteatosis moderada (barra gris).

Selección_326

Para empezar, la gráfica está mal, pues la suma (PRO+CHO+FAT) de las alturas de las barras grises es claramente mayor que la suma de las barras blancas y negras (las barras grises suman 105%, mientras que las otras suman 98-99%. Olvidando eso, los que tenían un mayor grado de esteatosis consumían más hidratos de carbono y más grasa saturada que los que no tenían. El grupo con esteatosis moderada/severa consumía el doble de azúcar al día que los que no tenían hígado graso. Importante ese dato, porque sorprendentemente luego en la tabla 4 el “r” de los carbohidratos simples sale negativo.

In the present study, intake of carbohydrates especially sugars was higher in the FL group compared to the group without FL. SFA intake was increased in parallel to hepatic fatty liver, while fiber consumption was lower in the subjects with FL compared to children without FL.
En este estudio el consumo de carbohidratos, especialmente azúcares, fue mayor en el grupo FL (hígado graso) en comparación con el grupo sin FL. El consumo de grasa saturada se incrementó en paralelo con el hígado graso, mientras que el consumo de fibra fue menor en los sujetos con hígado graso en comparación con los niños sin hígado graso.

Selección_327

Me pregunto qué grasa saturada consumían esos jóvenes. ¿Queso en la pizza? ¿Carne en una hamburguesa acompañada de patatas fritas y una coca-cola? ¿Nata en helados bien cargaditos de azúcar? ¿O era carne de ternera a la plancha con un poco de brócoli y mantequilla? 

Los autores ajustaron los datos por edad, sexo y dieta… Yo no lo entiendo: si únicamente había nueve niños en cada grupo, ¿cómo se pueden ajustar los datos de tan pocos participantes para tener en cuenta edad, sexo y dieta? ¿Y qué es el ajuste según “dieta” cuando tienes menos de diez niños en cada categoría?

Calculan estadísticamente la asociación matemática entre distintos componentes de la dieta y el hígado graso. En el texto y en la tabla 3 (que hemos visto antes) dicen que los que más grasa tenían en el hígado consumían más azúcar, pero el coeficiente “r” de los carbohidratos simples que dan en la tabla 4 es negativo. No lo entiendo. Por cierto, el parámetro “r” de los carbohidratos es mayor que para la grasa saturada. El otro parámetro relativo a los carbohidratos simples, el beta, es el mayor (0.72) de todos los relacionados con la dieta, muy por encima del parámetro beta de la grasa saturada (0.46). Y teniendo en cuenta que en gramos en la dieta de estos chavales hay cuatro veces más gramos de carbohidratos que de grasa saturada, estos datos apuntan claramente a la implicación de los carbohidratos en el hígado graso.

Selección_328

¿Demuestra este estudio proporcionalidad entre consumo de grasa saturada e hígado graso? ¿A partir de un estudio observacional, con una bajísima participación, en el que se les pregunta a niños qué han comido en las últimas 24h (ver) y en el que se encuentra una fuerte relación entre consumo de azúcares e hígado graso? ¿Qué acompañaba esa grasa saturada? ¿En qué productos se consumía? ¿El niño se come una pizza y culpamos del efecto en la salud a la grasa saturada del queso mozzarella en lugar de al trigo de la base de la pizza?

Y ya que estamos, ¿por qué solo le buscan las cosquillas a la grasa saturada? Si ya saben que es la única posible responsable no hace falta el estudio, y si no saben la causa deberían analizar todas las posibilidades, no solo la única que quieren que salga positiva. Esto es poner un único sospechoso en la rueda de reconocimiento.

Selección_325

Otro estudio observacional, pues se recolectan datos de los participantes. Los autores miden un parámetro llamado NPY (Neuropeptide Y) y sus propios datos dicen que ese parámetro está más relacionado con el consumo de carbohidratos que con el consumo de grasa saturada. Y si no fuera por un punto que está a la derecha en la gráfica que pongo abajo, y que corresponde a un valor extremo de consumo (¿600g/día de carbohidratos?), la relación sería mucho más clara, como he representado en rojo. (¿Por qué intentarían ajustar los puntos a una recta cuando es evidente que la relación no es lineal?)

 

Selección_330 Selección_329

 

we observed a positive correlation between saturated fatty acids intake, AgRP (r=0.54) and NPY (r=0.48) and between carbohydrate intake and NPY concentration (r=0.55) (Figs 2a, b and 3) only in NAFLD obese adolescents.

En el NPY, r=0.48 para las grasas saturadas, r=0.55 para los carbohidratos.

Acabamos de ver en la gráfica y en el texto, que la relación entre NPY y carbohidratos es más fuerte que la relación entre NPY y grasa saturada. Sin embargo en las conclusiones de este artículo recomiendan consumir carbohidratos complejos y reducir el consumo de grasas, especialmente las saturadas. O en otras palabras, en un estudio observacional basado en 50 adolescentes que siguen una dieta altísima en hidratos de carbono (50% de las calorías) han encontrado una relación entre consumo de carbohidratos y cierto parámetro, pero esa relación la ignoran y nos hablan de una relación estadísticamente menos fuerte. Y nos dicen que consumamos el macronutriente que tenía la relación más fuerte y que evitemos consumir el que tenía la relación más débil. Y, como digo, todo esto viniendo de un estudio observacional con poquísimos participantes. A mí no me convence mucho.

Igual que en el estudio anterior, cabe preguntarse de dónde sacaban la grasa saturada los participantes. ¿Comida basura o comida de verdad con grasas naturales? ¿Culpamos a la grasa saturada de estar presente en la comida basura junto a los carbohidratos?

 

En resumen, las referencias citadas son:

  • tres artículos en ratas, y, aunque nos sorprenda, las ratas no son seres humanos pequeños
  • un estudio que no tiene nada que ver con el tema,
  • otro estudio que no aporta ninguna prueba,
  • un estudio que cita estudios epidemiológicos, y finalmente
  • dos estudios epidemiológicos con poquísimos participantes en los que la relación entre carbohidratos e hígado graso es como mínimo tan fuerte como entre grasa saturada e hígado graso.

Y por cierto, acaba de publicarse un estudio del mismo tipo, observacional, basado en miles de personas que relaciona el consumo de bebidas azucaradas con el hígado graso (ver). Eso a partir de cuestionarios semicuantitativos sobre consumo. La epidemiología no es ciencia: es cachondeo. Y los que la practican no son científicos, son echadores de cartas que se creen científicos. Me pregunto si habría que prohibir publicar estudios epidemiológicos, pues es evidente que son una fuente constante de desinformación. Es una pistola en manos de un mono. Y el mono ha demostrado con creces que carece de la capacidad para hacer un uso responsable de la pistola.

we think the greatest problem in nutrition and obesity research is not ignorance; it is the illusion of knowledge created by pseudoscientific methods. These methods have led to the current state of confusion regarding what constitutes a healthy diet […]

federally funded nutrition researchers have demonstrated scientific incompetence over many generations by presenting anecdotal evidence as scientific evidence. As such, there is no scientific foundation to past or current nutrition guidelines. As a result, the public is both confused and (correctly) skeptical of government recommendations because they perceive the guidelines to constitute meaningless political statements. (ver,ver)

Creemos que el gran problema respecto de la obesidad y la nutrición no es la ignorancia; es la ilusión de conocimiento creada por métodos pseudocientíficos. Esos métodos nos han llevado al actual estado de confusión respecto de lo que constituye una dieta saludable. […]

Los investigadores sobre nutrición financiados federalmente han demostrado incompetencia científica durante varias generaciones, presentando evidencia anecdótica como evidencia científica. Como tal, no existe fundamento científico ni para las pasadas ni para las actuales recomendaciones dietarias. Como resultado, el públlico está confuso y es (acertadamente) escéptico respecto de las recomendaciones gubernamentales porque percibe que esas recomendaciones constituyen declaraciones políticas sin sentido.

Mi experiencia con una dieta no reducida en grasa saturada:

Estudios epidemiológicos

¿Por qué crees que el consumo de margarina en Estados Unidos determina la tasa de divorcios en uno de sus estados (Maine)? ¿O es al contrario y la tasa de divorcios en Maine determina el consumo de margarina en Estados Unidos? Mira la gráfica: la relación entre ambas variables es innegable.

¿Cómo crees que el número de gente que muere por enredarse en las sábanas de la cama afecta a los ingresos obtenidos por las estaciones de esquí en Estados Unidos? ¿O es al revés y los ingresos de las estaciones de esquí determinan la cantidad de gente que muere de esa manera tan horrible? Mira la gráfica: la relación entre ambas variables es innegable.

Los anteriores son ejemplos (sacados de esta web) de “estudios observacionales”: la comparación por métodos estadísticos de dos magnitudes o variables para ver si guardan “relación”. Y es evidente que en los casos anteriores están relacionadas. ¿O no? Sí, estadísticamente lo están, y además de forma innegable.

Las matemáticas pueden dar un veredicto, pero es obvio que hay que usar la inteligencia para interpretar ese veredicto. Sin un motivo razonable por el cual dos variables puedan estar relacionadas es absurdo plantearse que su comparación matemática, su correlación, implique algo a tener en cuenta.

En nutrición los estudios observacionales son armas de destrucción masiva del conocimiento. Dentro de la escala de calidad de los estudios científicos, los de este tipo pertenecen a la parte más baja: salvo que un resultado sea escandalosamente claro solo deberían servir para despertar una sospecha que siempre debería ser corroborada con un estudio de mayor calidad y fiabilidad. Esos estudios clínicos de máximo nivel son los estudios clínicos aleatorizados: en pocas palabras, se forman varios grupos (numerosos) de personas, distribuidas al azar en dichos grupos, se establece una pequeña diferencia en sus dietas, en algún grupo se les da un placebo, y se realiza un seguimiento exhaustivo de su evolución.

Volviendo a los estudios epidemiológicos, hoy he visto en una página de la FAO la siguiente gráfica, relacionando la mortalidad por cáncer de colon y mamario con la ingesta de grasas:

 

Podría haber una relación causa efecto grasa-cáncer, o no. Puede ser casualidad y la verdadera causa ser otra, por ejemplo el aumento en el consumo de trigo. Puede ser porque ambas variables, consumo de grasa y cáncer, coinciden con un desarrollo económico de ese país, al igual que muchas otras. Puede haber una relación porque las personas que ingieren grasa, con todas las mentiras que nos cuentan las autoridades sobre ellas, son en término medio menos responsables con su salud que el resto de la población y eso se manifiesta de alguna manera también en las tasas de cáncer (no solo comen grasa desafiando a las autoridades, hacen otras cosas no recomendadas). Podrían ser mil cosas, y sin una justificación de cómo las grasas producen cáncer, proponer la gráfica anterior como prueba de una relación causa-efecto entre grasa y cáncer no solo es signo de extrema estupidez, sino una gravísima irresponsabilidad. Pero en nutrición, es lo habitual.

Si se diese la casualidad de que el consumo de trigo en Japón también hubiese crecido en esos años, ¿qué hacemos? ¿quién está provocando el cáncer ahora? ¿El trigo, la grasa, ambos?

Como curiosidad, en Japón el consumo de trigo se incrementó en esos años notablemente.

Selección_022

 

¿Y el consumo de azúcar, cómo evolucionó entre 1955 y 1985?

¡La misma evolución que el consumo de grasa! ¡El azúcar también causa cáncer! (¿o es el trigo? ¿o es la grasa? ¿o es el trigo y el azúcar pero no la grasa?)

Y, ¿por qué nos fijamos en Japón? ¿Y si en otro país la relación es justamente a la inversa, y el consumo de grasa baja mientras el cáncer sube? ¿Ocultamos los datos para que no nos estropee nuestra hipótesis? ¿Quién ha elegido Japón y por qué? ¿Puede tener que ver la evolución del cáncer en Japón con el efecto de las bombas atómicas lanzadas en 1945?

¿Hace falta seguir exponiendo cuál es el valor de un estudio epidemiológico?

Y mirando la gráfica original, ¿no es curioso que cáncer y consumo de grasa se incrementen justo al mismo tiempo? Prácticamente debe ser terminar de comerse el filete y salir hacia el hospital para que te ingresen. ¡Qué mala es la grasa que el cáncer es instantáneo!

También sería curioso ver antes de 1955 qué relación había entre el consumo de grasa y el cáncer. ¿Y si el consumo era elevado y el cáncer inexistente?

¿Y por qué usamos esa correlación y no otras, como la detectada entre el trigo y las enfermedades cardíacas? ¿Estamos recomendando a la gente que no consuma trigo? ¿Por qué no, y sin embargo sí se advierte que la carne puede producir cáncer? ¿Con qué criterio se destacan unos estudios “basura” y se ignoran otros?

Los estudios observacionales son el juguete perfecto de los científicos sinvergüenzas y de los periodistas incompetentes. Esos científicos manipulan los datos a su antojo, dejan unos, descartan otros, ignoran los que desmienten sus teorías y al final obtienen la relación que buscan desde un principio. En palabras de Denise Minger, “los datos son como las personas, si los torturas suficientemente, aunque sean inocentes, acabarán confesando“. Si un vegetariano fanático maneja los datos, a buen seguro el resultado no va a ser bueno para la carne. Un investigador fanático convencido de lo mala que es ésta o aquella grasa solo necesita un estudio epidemiológico para encontrar los datos que demuestren la relación entre la carne y algo malo, lo que sea.

Y, ya acabando, no olvidemos que el número de gente que muere por enredarse en las sábanas de la cama guarda una relación mucho más significativa con los ingresos obtenidos por las estaciones de esquí en Estados Unidos, que el consumo de grasa, azúcar o trigo con el cáncer en Japón.

La pregunta que debemos hacernos es: ¿cuántas de las recomendaciones que se nos dan en materia de nutrición vienen avaladas exclusivamente por estudios observacionales/epidemiológicos? ¿Y a la hora de recetar un fármaco?

Para leer más:

Ciencia para gente inteligente

Un día sí y otro también nos encontramos en los periódicos con noticias sobre nutrición que nos dicen que tal o cual alimento nos va a matar. El problema es que muchas de dichas noticias están basadas en artículos científicos BASURA, que básicamente son de dos tipos: los estudios epidemiológicos y los realizados en animales. Algunos médicos llaman a los estudios epidemiológicos “armas de destrucción masiva” en nutrición. Gary Taubes escribió sobre ellos hace unos años. De los otros estudios solo cabe decir que los seres humanos no somos ratones y que es increíble que algunos “científicos” se atrevan a extrapolar resultados de ratones a seres humanos, especialmente cuando dichos resultados entran en contradicción con los resultados obtenidos en humanos. Veamos un ejemplo de cada tipo de estudios basura:

  1. Epidemiológico: “Las dietas altas en proteínas matan igual que el tabaco“. Véase el análisis que realiza el doctor John Briffa sobre dicho titular. Me gusta especialmente el ejemplo que pone sobre la relación entre los ataques de tiburones y la venta de helados.
  2. Estudios en animales: “Los pacientes obesos con dietas bajas en hidratos de carbono podrían desarrollar hígado graso no alcohólico“. Ése es el resultado en ratones, no en humanos, extrapolado a los humanos. ¿Cómo puede un científico serio y honesto extrapolar el resultado obtenido en ratones a los seres humanos, cuando los estudios experimentales en humanos dicen que las dietas bajas en hidratos de carbono mejoran el hígado graso no alcohólico (ver este estudio o este otro)? Mi hígado graso desapareció cuando empecé a comer “low-carb”…

Tom Naughton es un cómico estadounidense, autor del documental Fat Head (accesible en youtube). En su charla “Science for smart people” explica de forma muy amena cómo interpretar los datos procedentes de estudios científicos y cómo podemos distinguir la buena ciencia de la basura. Por ejemplo nos explica cómo interpretar los titulares que nos dicen que un alimento duplica, aumenta o reduce nuestro riesgo de sufrir un episodio cardiovascular, ¿debemos hacer caso a ese tipo de informaciones? Entender lo que nos están diciendo puede evitarnos tomar decisiones erróneas en nuestra alimentación.

Science For Smart People” by Tom Naughton