¿Quién haría eso? (III)

Dietary carbohydrate intake and mortality: a prospective cohort study and meta-analysis

Estudio de tipo observacional (i.e. no se hace ningún experimento, sólo se observan y manipulan datos).

En los años 1988 y 1994 a los participantes se les pasó un cuestionario en el que tenían que identificar su frecuencia de consumo de los 66 elementos dietarios por los que se les preguntaba.

Participants completed an interview that included a 66-item semi-quantitative food frequency questionnaire (FFQ), modified from a 61-item FFQ designed and validated by Willett and colleagues, at Visit 1 (1987–89) and Visit 3 (1993–95). Participants reported the frequency with which they consumed particular foods and beverages in nine standard frequency categories (extending from never or less than one time per month, to six or more times per day). […] The primary outcome was all-cause mortality, subsequent to the first visit, until the end of 2013.

Los participantes completaron una entrevista que incluyó un cuestionario semicuantitativo de frecuencia de alimentos (FFQ) de 66 ítems, modificado a partir de un FFQ de 61 ítems diseñado y validado por Willett y colegas, en la Visita 1 (1987-89) y la Visita 3 (1993-95). ) Los participantes informaron de la frecuencia con la que consumieron alimentos y bebidas particulares en nueve categorías de frecuencia estándar (que se extiende desde nunca o menos de una vez por mes, hasta seis o más veces por día). […] El resultado primario fue la mortalidad por todas las causas, posterior a la primera visita, hasta el final de 2013.

Como podemos imaginar, esos cuestionarios ni siquiera son fiables para las dos ocasiones en que se usaron.

we conclude that M-BM data cannot be used to inform national dietary guidelines and the continued funding of M-BM constitutes an unscientific and significant misuse of research resources.

Concluimos que los datos de M-BM [métodos basados en memoria] no pueden utilizarse como fuente de información para las pautas dietarias nacionales y que la financiación continuada de M-BM constituye un acientífico y significativo maluso de los recursos de investigación.

Fuente:

Y, de hecho, si hacemos caso a los datos obtenidos con esos cuestionarios los participantes consumían una cantidad de comida insosteniblemente baja, en el entorno de las 1600 kcal/d. Así 25 años. ¿Resulta creíble?

imagen_2444imagen_2445

Uno de los notables defectos de este estudio es que presupone que desde el segundo cuestionario (alrededor de 1994) hasta el final del estudio a finales de 2013 o el momento de la muerte no hubo cambios en la dieta. O sea, que los autores presuponen, porque sí, que en prácticamente 20 años esas personas siempre comieron lo mismo. Y, además, presuponen que ese “lo mismo” coincide con los resultados obtenidos a partir de los dos cuestionarios pasados al inicio de ese periodo. ¿No es eso mucho imaginar?

Por otro lado nótese en la siguiente tabla que los HR [cocientes de riesgo] en los rangos extremos de consumo son próximos a 1 (se toma arbitrariamente un 50-55% de carbohidratos como referencia=1) y que, además, el número de participantes involucrados en esos rangos extremos de consumo es muy pequeño.

imagen_2443

Pero podemos representar de forma espectacular estos HR que no llegan a 2:

imagen_2447

El común de los mortales no se fija en la escala de la gráfica, ni se plantea si hay datos reales y fiables para representarla por debajo del 40%. ¿Los hay? Los datos del 20% de carbohidratos, ¿de dónde salen? Los datos del 30% ¿de dónde salen?

¿Quién usaría HR próximos a 1 para desinformar a la población? Sí, ¿quién haría eso?

Mis reflexiones:

  1. No sabemos qué comían las personas que murieron ni qué comían las que no murieron. Ni siquiera sabemos qué comían en los dos momentos en que se les pasó el cuestionario, y por tanto, mucho menos en las dos décadas posteriores. Tampoco sabemos cuál fue la alimentación de esas personas antes de 1988, es decir, antes de iniciarse este estudio. Y la media de edad era de unos 50-55 años en ese momento. Son muchos años comiendo. ¿Atribuimos su muerte a la dieta medida por procedimientos más que cuestionables en dos momentos puntuales de sus vidas, dando por supuesto además que esa dieta no cambió en los años posteriores? ¿Y de esa dieta escogemos los carbohidratos en conjunto como únicos posibles culpables?
  2. ¿Deducimos causalidad de HR próximos a 1, basado además en un número pequeño de participantes en los rangos extremos de consumo?
  3. ¿Atribuimos el resultado a las dietas bajas en carbohidratos, siendo que en este estudio no se analizaron los efectos de las dietas bajas en carbohidratos, sino de un continuo de consumo de carbohidratos que apenas bajaba del 40% en su rango más bajo? (37% de media en el quintil de menor consumo)
  4. Asumiendo que los datos de ingesta usados fueran correctos (aun cuando realmente son desconocidos), ¿cuál sería en tal caso la causa real del resultado obtenido? ¿Quizá el efecto del participante “health conscious” (que está pendiente de lo que come por motivos de salud) que no sólo sigue la dieta de las harinas, sino que lo compensa cuidándose de muchas otras formas? Los que se mueven lejos de las recomendaciones oficiales pueden estar ahí por tener buena información sobre salud, pero también por ser unos dejados que no se cuidan. Este efecto no se corrige cocinando los números.
  5. Quizá hacer un estudio aleatorizado y controlado que dure 25 años sea inviable, pero eso no hace buena la epidemiología. La epidemiología es una disciplina acientífica, prima hermana de la astrología. Pero a la vista está que los charlatanes le encuentran gran “utilidad” para hacer avanzar sus intereses.
  6. ¿Se habría publicado este estudio de no haber podido cocinar los datos hasta llegar a las conclusiones deseadas de antemano por sus autores? Me llama la atención que enviarlo a publicación o no sea algo que se pueda decidir a la luz de lo que se obtiene o de lo que se cree obtener (The corresponding author had full access to all the data in the study and had final responsibility for the decision to submit for publication). ¿Qué resultados podrían haber hecho que no se enviara para su publicación?

Un cita de John Ioannidis:

Assuming the meta-analyzed evidence from cohort studies represents life span-long causal associations, for a baseline life expectancy of 80 years, eating 12 hazelnuts daily (1 oz) would prolong life by 12 years (ie, 1 year per hazelnut), drinking 3 cups of coffee daily would achieve a similar gain of 12 extra years, and eating a single mandarin orange daily (80 g) would add 5 years of life). Conversely, consuming 1 egg daily would reduce life expectancy by 6 years, and eating 2 slices of bacon (30 g) daily would shorten life by a decade, an effect worse than smoking). Could these results possibly be true? Authors often use causal language when reporting the findings from these studies (eg, “optimal consumption of risk-decreasing foods results in a 56% reduction of all-cause mortality”). Burden-of-disease studies and guidelines endorse these estimates. Even when authors add caveats, results are still often presented by the media as causal. John Ioannidis

Suponiendo que la evidencia metaanalizada de los estudios de cohortes representa asociaciones causales de toda la vida, para una expectativa de vida de 80 años, comer 12 avellanas diarias (1 onza) prolongaría la vida en 12 años (i.e., 1 año por avellana), bebiendo 3 tazas de café al día se obtendría una ganancia similar de 12 años adicionales, y comer una sola naranja mandarina al día (80 g) agregaría 5 años de vida). Por el contrario, consumir 1 huevo al día reduciría la esperanza de vida en 6 años, y comer 2 rebanadas de tocino (30 g) al día acortaría la vida por una década, un efecto peor que fumar. ¿Es posible que estos resultados sean ciertos? Los autores a menudo usan el lenguaje causal al informar de los hallazgos de estos estudios (p. Ej., “El consumo óptimo de alimentos que reducen el riesgo resulta en una reducción del 56% de la mortalidad por todas las causas”). Los estudios y guías sobre la carga de morbilidad respaldan estas estimaciones. Incluso cuando los autores agregan advertencias, los resultados a menudo son presentados como causales por los medios de comunicación.

¿Has leído algún titular en el que se daba a entender que las dietas bajas en carbohidratos acortan tu vida?

imagen_2448

Eso es dar a entender que existe una relación causal. No se puede hacer, pero les da igual: lo hacen. Y no es culpa exclusiva de los periodistas: la epidemiología existe para hacer lo que no se puede ni se debe hacer. No necesita una reforma, sino su prohibición.

Leer más:

 

Anuncios

¿Quién haría eso? (II)


Recomiendo, antes de leer esta entrada, ver unos segundos de este vídeo (pinchar en la tercera pestaña en la parte de la derecha, la que tiene el típico triángulo de “play”, y seleccionar a partir del minuto 0:54). Lo que nos cuentan:

individuals that consume the highest amount of animal-based proteins have somewhat higher rates of mortality, in particular cardiovascular mortality

las personas que consumen mayor cantidad de proteínas de origen animal tienen tasas de mortalidad algo mayores, en particular la mortalidad cardiovascular

¿Es eso cierto? Vamos a verlo.

Resumen de la noticia en una página web (sciencedaily): hay asociación con una mayor mortalidad

The largest study to examine the effects of different sources of dietary protein found that a high intake of proteins from animal sources — particularly processed and unprocessed red meats — was associated with a higher mortality rate,

El texto de esa misma noticia (sciencedaily): débilmente asociado con una mayor mortalidad

After adjustment for lifestyle and other dietary risk factors, a high consumption of protein from animal sources — any types of meat, eggs or dairy — was weakly associated with an increased rate of death, while high consumption of protein from plant sources — breads, cereals, pasta, beans, nuts and legumes — was associated with a lower mortality rate.

El abstract del artículo en revista científica: no asociado con una mayor mortalidad

After adjusting for major lifestyle and dietary risk factors, animal protein intake was not associated with all-cause mortality (HR, 1.02 per 10% energy increment; 95% CI, 0.98-1.05; P for trend = .33)

Tabla de datos del artículo en revista científica: el HR en mortalidad por cualquier causa no pasa de 1.03 en ningún quintil de consumo de proteína animal

 

¿Qué explicación tiene?

En su artículo original los autores habían dado a entender que sí había una asociación con una mayor mortalidad (el mensaje que hemos visto en el vídeo, sin ir más lejos) y tuvieron que corregir esa tomadura de pelo, negando posteriormente esa asociación y haciendo explícito que el HR era —un ridículo— 1.02 en la mortalidad por cualquier causa:

“After adjusting for major lifestyle and dietary risk factors, animal protein intake was weakly associated with higher mortality, particularly cardiovascular mortality (HR, 1.08 per 10% energy increment; 95% CI, 1.01-1.16; P for trend = .04), whereas plant protein was associated with lower mortality (HR, 0.90 per 3% energy increment; 95% CI, 0.86-0.95; P for trend < .001).” should be replaced with “After adjusting for major lifestyle and dietary risk factors, animal protein intake was not associated with all-cause mortality (HR, 1.02 per 10% energy increment; 95% CI, 0.98-1.05; P for trend = .33) but was associated with higher cardiovascular mortality (HR, 1.08 per 10% energy increment; 95% CI, 1.01-1.16; P for trend = .04).

Aun así, mantuvieron en sus conclusiones que sí hubo asociación con un tipo concreto de causa de muerte (enfermedad cardiovascular). HR de 1.08 por 10% de incremento en la energía, nos dicen. Ésta es la tabla de datos del artículo:

No te mueres más, pero sí más por causa cardiovascular y, aunque no se puede hacer, intentan dar a entender una relación causa-efecto. ¿Quién haría eso? Por otro lado, para una persona es muy importante no morir de causa cardiovascular, aunque mueras igual, sólo que por una causa diferente. Es el típico engaño de los estudios de fármacos que reducen el colesterol y que se cuentan como un éxito aunque no muestren diferencias en la mortalidad total (ver). Para vender como éxito lo que no lo es sólo hay que definir un parámetro irrelevante para el cliente como objetivo principal del estudio para poder concluir que el fármaco es exitoso, aunque no retrase ni un día la muerte de los participantes y venga acompañado de efectos secundarios. Y, ya que estamos, recordemos que ningún fármaco salva vidas: sólo retrasan la muerte, en el mejor de los casos.

HR=1.08… Evidencia mucho más sólida que un HR=1.02… ¿cómo no alertar a la población del gran peligro que corremos por no volvernos veganos? ¡¡Por nuestro bien!!

¿Quién usaría la epidemiología para hacer avanzar su agenda? Sí, ¿quién haría eso?

Leer más:

¿Quién haría eso?

Hace unos días descubrí que mi nivel es muy bajo y que no tengo ni idea de interpretar meta-análisis. Como mínimo es interesante, de cara a que los lectores de este blog no sean engañados por mi incompetencia. Si he metido la pata, mejor que se sepa.

Ahora cuento de qué estoy hablando. Empiezo por el principio. Hace unas semanas me encontré con el escrito de un señor llamado Joseph Agu (ver) que alababa un meta-análisis que según él mostraba que un aumento en el porcentaje de carbohidratos conducía a un menor riesgo de obesidad.

dos estudios publicados en el último par de semanas sirven para cerrar firmemente el ataúd de los fanáticos de las dietas bajas en carbohidratos. La primera fue una revisión sistemática y un metanálisis publicado en el British Medical Journal hace dos semanas, donde Sartorius y sus colegas se pusieron a prueba la asociación entre las dietas altas y bajas en carbohidratos y la obesidad […] esta vez se encontró lo contrario de los estratos 1; que el aumento del porcentaje de carbohidratos en la dieta conduce a un ligeramente menor riesgo de obesidad (fuente)

conduce a un ligeramente menor riesgo de obesidad”. Causa y efecto. Para él, la demostración definitiva de que las dietas bajas en carbohidratos son incluso engordantes. Y, por supuesto, el estudio no iba sobre dietas bajas en carbohidratos.

Así que le eché un vistazo al meta-análisis y publiqué una entrada con mi análisis sobre ese estudio.

El texto de Agu que dio origen a esa entrada aparece como primer comentario de la misma.

No voy a repetir ahora los argumentos de esa entrada, pero básicamente quiero llamar la atención sobre dos hechos:

  1. A menudo se usa el término “meta-análisis” para dar credibilidad o relevancia a los resultados. Se juntan estudios basura en una única recopilación y se sacan conclusiones que no se sostienen cuando se mira con detalle y espíritu crítico el meta-análisis. Hay una decena de ejemplos en el blog, algunos de ellos enlazados al final de esta entrada.
  2. Casi siempre se usa la palabra “riesgo” para engañar a la gente dando a entender una relación causa-efecto (ver).

El segundo de los engaños es realmente sangrante: es un ejemplo de libro de falacia de ambigüedad:

Falacia de ambigüedad: Se comete cuando en el curso de una argumentación, al menos uno de los términos es utilizado en más de un sentido, o bien una frase esta construida de manera inadecuada.

El cociente de riesgo en el ámbito estadístico es el cociente entre la frecuencia de aparición de una determinada condición (por ejemplo tener síndrome metabólico) en un grupo de personas que tiene ciertas características y la de otro grupo que tiene otras características. Este concepto no implica causalidad. Por ejemplo, la frecuencia de enfermedad de arteria coronaria en hombres calvos es mayor que en los que no son calvos (ver). Usando terminología estadística hablaríamos de que ser calvo está relacionado con un mayor riesgo de padecer esa enfermedad. Pero ni es ser calvo lo que lleva a padecer la enfermedad ni un crecepelo te protege de la enfermedad. No necesariamente. Porque ese “riesgo” no significa que una cosa cause la otra, ni de que sea mayor el riesgo se deduce que sea aconsejable hacer algo para reducir ese “riesgo” definido de esa manera.

Pero en el uso del término “riesgo” hay falacia de ambigüedad, pues se introduce con su definición estadística, pero la gente de la calle no maneja esa definición de “riesgo”. Para el común de los mortales si algo aumenta tu riesgo de padecer una enfermedad, ese algo te está poniendo en peligro y, por tanto, es buena idea reducir ese riesgo. Porque un aumento de riesgo significa que “es más probable que suceda un daño”. Se da a entender causa y efecto, porque si no hay causa-efecto no es más probable. Y con esa falacia de ambigüedad se persigue inducir a la gente a actuar para reducir el riesgo. Todos conocemos este ejemplo: el médico te dice que tener el LDL elevado te pone en riesgo (¿o te dice que aumenta tu riesgo?) de enfermedad cardiovascular así que te da una pastillita para bajar el riesgo. Y crees que estás protegiendo tu salud. Del término riesgo se deduce que existe relación causa-efecto y eso se usa para justificar un tratamiento médico (ver).

Otro ejemplo:

imagen_1916
Estudios observacionales, se supone que no se puede deducir una relación causa-efecto, pero para eso tienen la palabra “riesgo”, para poder engañar a la gente desinformada. Por otro lado, si no se pretende dar a entender una relación causa-efecto, ¿para qué se cuenta? Si le dices a alguien que el síndrome metabólico es más frecuente en los que más consumen carne roja frente a los que menos consumen, ¿no pretendes dar a entender que una cosa causa la otra? Que no nos engañen: ¿para qué se contaría si no es para dar a entender una relación causa-efecto? Porque sin relación causa-efecto esa información carece de interés.

En definitiva, para esto sirve la epidemiología: para engañar. Charlatanería con respaldo oficial.

No hay nada pecaminoso en comprobar si los datos se correlacionan. No hay nada pecaminoso en la búsqueda de variables de confusión. El pecado viene al creer que una hipótesis causal es cierta porque en tu estudio ha salido un resultado positivo, o creer lo contrario porque tu estudio fue negativo. Sander Greenland

Discrepo de esta cita. Los que crean los estudios basura tienen gran parte de la culpa del mal uso que se hace de ellos una vez publicados.

Pero la epidemiología no es la única forma en la que se usan los meta-análisis para engañar. Otro ejemplo, éste con ensayos de intervención:

Y si miras los estudios incluidos en el meta-análisis te das cuenta de que es una tomadura de pelo. Pero ahí está el tipo en twitter lanzando la desinformación y dándole “credibilidad” al mensaje con el término “meta-análisis”.

El caso es que un dietista-nutricionista llamado Eduard Baladia se pregunta en twitter que quién usaría un meta-análisis para dar a entender una relación causa-efecto a partir de datos observacionales.

imagen_1917

Ya he puesto tres ejemplos reales de gente que desinforma en las redes sociales dando a entender relaciones causa-efecto en base a meta-análisis que no permiten extraer las pretendidas conclusiones. En los tres casos, estudios basura cuyas conclusiones coinciden con la ideología de quien los difunde.

Mi mensaje es que no nos dejemos engañar por el término meta-análisis. Que sea un meta-análisis no significa nada en sí mismo: hay que examinar el detalle de los estudios que forman parte de los meta-análisis. No hacerlo es un error.

Por ejemplo, en el que citaba antes de la carne roja nos dicen que han incluido la carne roja PROCESADA como datos de la carne roja:

‘Red meat’ included red meat and processed red meat

Y así se comprueba al hojear un poco los estudios observacionales incluídos en ese meta-análisis. Pero luego en el abstract presentan los datos por separado de carne roja y carne procesada, cuando, como acabamos de ver, dentro de “carne roja” también se incluía carne (roja) procesada:

The pooled RR for metabolic syndrome of the highest versus lowest category of meat intake was 1.14 (95% CI: 1.05, 1.23) for total meat, 1.33 (95% CI: 1.01, 1.74) for red meat, 1.35 (95% CI: 1.18, 1.54) for processed meat, and 0.86 (95% CI: 0.76, 0.97) for white meat.

La persona que nos dice que la carne roja te pone en riesgo de síndrome metabólico ni matiza que el dato de la carne roja incluye carne procesada ni te dice que el risk ratio es de 1.33. Carne procesada… así que estamos poniendo sobre la mesa muchos más factores que “carne roja”: económicos, sociales, el efecto del “consumidor irresponsable” (que consume carne roja y carne roja procesada frente al consejo de los “expertos” de no hacerlo). Y aún así, risk ratio de 1.33. Suficiente para desinformar en twitter:

imagen_1916

¿Qué entiende una persona de la calle cuando lee “mayor riesgo de”? ¿Qué es lo que está diciendo ese mensaje? ¿Qué persigue el autor del texto? No sabemos qué causa qué, pero es un hecho que se usa la epidemiología para intentar engañar a la gente.

Y, por cierto, los autores de ese meta-análisis de estudios observacionales no cometen el error de deducir causa-efecto, porque los buenos científicos no hacen esas cosas. ¿Quién haría eso?

Our findings suggest that the effect on health is different by the types of meat and also support current common dietary guidelines to decrease the intake of red and processed meat and increase the consumption of white meat.

Nuestros hallazgos sugieren que el efecto sobre la salud es diferente según los tipos de carne y también respalda las pautas dietéticas comunes actuales para disminuir la ingesta de carne roja y procesada y aumentar el consumo de carne blanca.

Ah, espera, ¡sí que lo hacen!

A donde quería llegar es que al parecer mi entrada era de nivel muy bajo y no tengo ni idea de meta-análisis:

imagen_1918

Lo veo realmente interesante. Me gustaría saber dónde he metido la pata en esa entrada. A la gente que lee este blog debería resultarle interesante conocerlo. ¿Cuáles de mis argumentos son erróneos? Tienen que ser muchos, porque la entrada es de nivel muy bajo. Y estoy de acuerdo en que no sé nada de meta-análisis. No es falsa modestia, es la realidad. Pero me gustaría saber qué parte de la entrada me ha delatado en ese sentido. Y también tengo curiosidad por saber qué hice mal citando a Ioannidis. También tiene que haber sido algo muy grave y fácil de explicar.

there is massive production of unnecessary, misleading, and conflicted systematic reviews and meta-analyses. Ioannidis JP

existe una ingente producción de revisiones y meta-análisis innecesarios, engañosos e inconsistentes

Leer más:

Guyenet refuta que el azúcar engorde

imagen_0411

Supongamos que lo que engordas cada año es proporcional a la cantidad de azúcar que consumes. O en otras palabras, si consumes 100 g/d engordas unos kilos, y si consumes 50 g/d engordas la mitad que en el caso anterior.

Supongamos que has estado consumiendo cada vez más azúcar y estabas engordando. Has llegado a consumir 110 g/d de azúcar. Pero en los últimos 15 años has ido bajando progresivamente tu consumo, de forma que actualmente consumes un poco menos: 95 g/d. ¿Cómo es de esperar que evolucione tu peso corporal? Bajo el supuesto de que el azúcar te está engordando, si reduces un poco el consumo, seguirás subiendo de peso, pero a una velocidad ligeramente menor.

Es lo que muestro en la siguiente gráfica, calculada suponiendo que el engorde es directamente proporcional a la ingesta de azúcar. En azul tenemos el consumo de azúcar (gramos al día); con estrellas tendríamos el peso corporal que habríamos tenido de no haber cambiado la tendencia en nuestro consumo de azúcar; y en naranja tenemos la evolución real del peso corporal (cuando en lugar de consumir cada vez más azúcar hemos reducido ligeramente el consumo en los último 15 años, según indica la curva azul):

sgsp

En resumen, si el azúcar es engordante, ¿qué cabe esperar si reduzco un poco el consumo? Seguir engordando, pero a una velocidad un poco menor. Es lo que confirma la curva naranja en la gráfica anterior.

Hace unos días (ver) Stephan Guyenet, PhD quiso refutar la idea de que el azúcar nos está engordando. Para él, todo es tan sencillo como que comemos demasiado porque nos gusta demasiado comer, es decir, una versión más de la pseudocientífica teoría del balance energético.

Uno de los argumentos que presenta Guyenet es que en los últimos 15 años se ha reducido el consumo de azúcar y, según él, el hecho de que la tasa de obesidad no sólo no se haya reducido, sino que haya seguido aumentando, hace “altamente improbable” que el azúcar sea la causa principal de la obesidad. La gráfica que presenta es la siguiente:

Es decir, su planteamiento es que si consumir 110 g/d engorda, consumir entre 95 y 110 g/d ¡debería hacernos adelgazar! Y como eso no es lo que ha sucedido, según él, se deduce que es altamente improbable que el azúcar sea la causa principal de la obesidad.

Americans have been reining in our sugar intake for more than fourteen years, and not only has it failed to slim us down, it hasn’t even stopped us from gaining additional weight. This suggests that sugar is highly unlikely to be the primary cause of obesity or diabetes in the United States, although again it doesn’t exonerate sugar.

Su “razonamiento” es que si golpear diez veces nuestra cabeza contra la pared produce dolor, golpear sólo nueve veces no debe provocar dolor: debe ser placentero. Y si no lo es, si te sigue produciendo dolor, aunque sea en menor medida, para él se demuestra que no hay relación entre los golpes contra la pared y el dolor. Un argumento absolutamente estúpido.

Es más: fijémonos que entre 1980 y 1999 el consumo de azúcar estuvo en el rango de 85 a 110 g/d y el peso corporal aumentaba. Guyenet propone que entre 2000 y 2013, cuando el consumo estuvo entre 95 y 110 g/d el peso corporal tenía que bajar.

Por otro lado, nótese que Guyenet interpreta los datos de la gráfica anterior como si se tratara de un experimento controlado, cuando en realidad no son más que datos observacionales. No se ha realizado ningún experimento.

Nótese también que la curva azul que presenta Guyenet no empieza en cero g/d, lo que hace parecer el supuesto descenso en el consumo de azúcar mayor de lo que realmente es.

Edito (18/1/2017): hay una segunda parte de este artículo, con explicaciones más detalladas.

Leer más:

Carne roja, ¿mortífera o letal?

Estudio de 2013, de título “Meat consumption and mortality – results from the European Prospective Investigation into Cancer and Nutrition“.

Es un estudio observacional en el que se analiza la dieta y mortalidad en 448,568 personas, hombres y mujeres.

Clasifican a la gente según la cantidad de carne roja que consumen, y el resultado es que si, por ejemplo, 2 de cada 100 personas muere de cáncer en el grupo de menor consumo, si consideramos a las personas que consumen 100g diarios más de carne roja la mortalidad por cáncer sería 2 de cada 100 personas.

Selección_478

Ésa sería la conclusión del análisis: el consumo de carne roja NO guarda relación alguna con el cáncer.

No perdamos de vista que esto es un estudio observacional. Estos estudios no permiten deducir que una cosa cause otra, salvo en casos extremos. Si hablásemos de tabaquismo y cáncer, ese valor resaltado en verde andaría en el entorno de 20-30, en lugar de 1. Y si, como es el caso, los valores son próximos a 1, lo que se puede concluir es que probablemente no hay relación causal. Si la carne roja causase cáncer los valores no andarían cerca del 1 en ningún estudio. Si hubiese algo, habría algo.

Fijémonos en cómo los autores de este estudio no han tomado como referencia el grupo de menor consumo de carne roja, sino el siguiente. ¿Por qué? Para tratar de inflar las cifras del grupo de mayor consumo de carne roja. En el caso del cáncer el hazard ratio (cociente de riesgo) de ese grupo habría sido 1.16 de haber tomado como referencia al grupo de menor consumo, en lugar del 1.21 que aparece en la tabla por usar una referencia diferente. No es que cambie mucho, pero es evidente que eso es lo que han buscado.

El principal problema de los estudios observacionales es que son los participantes los que escogen lo que comen, y eso hace imposible sacar conclusiones en la mayoría de los casos. Las personas que más carne roja consumen se parecen entre sí y se diferencian de los que menos consumen. Beben más alcohol, consumen más carne procesada, fuman más y tienen menos formación universitaria. Los “investigadores” intentan anular los efectos de todos esos factores, pero creer que lo consiguen es un acto de fe. Si a eso le añadimos la escasa fiabilidad de los métodos empleados para registrar qué consumen los participantes (ver), sólo podemos concluir que el intento de sacar conclusiones de cocientes de riesgo cercanos a 1 es abusar del desconocimiento de la gente llana en estos temas. O lo que es lo mismo: engañar y manipular a la gente.

La epidemiología no entra en el concepto de ciencia. Sus resultados no son científicos. Es tan científica como la astrología.

Con esta entrada de Tom Naughton puedes entender cómo de fiables son los estudios epidemiológicos. La epidemiología no es ciencia, es un chiste.

Un ejemplo: este estudio dice que el cáncer colorrectal es más frecuente entre los vegetarianos que entre los consumidores de carne, mientras que este otro concluye exactamente lo contrario.

Y si estás pensando en que juntar varios estudios epidemiológicos es más fiable que uno suelto, discrepo. Los problemas de estos estudios no desaparecen por acumular los resultados de varios de ellos. Perdón por ser soez, pero si un estudio es mierda, juntando varios lo que tienes es mucha mierda. Negaré haberme expresado en esos términos. Richard Feinman lo explica de forma más educada: “el meta-análisis es al análisis lo que la meta-física es a la física”. Podemos obtener de forma consistente que los que comen una cantidad extrema de carne roja al día tienen peor salud que los que comen una cantidad sensata. Puede que todos los estudios observacionales digan lo mismo, pero juntar todos esos estudios no elimina el problema de raíz, presente en todos ellos, que es la falta de aleatorización (i.e. asignación al azar) de las dietas. El argumento de que “esto se sabe desde hace muchos años” hay que interpretarlo correctamente: hay grupos de presión que llevan muchos años intentando colar como evidencia científica lo que no lo es.

¿Y las carnes procesadas?

Si la carne no tiene ningún problema, ni roja, ni blanca, ¿qué pasa con la “carne procesada”? En mi opinión, la respuesta depende del producto. Mira la lista de ingredientes, y si ves azúcar, gluten, cereales, soja, fécula de patata, aceites de semillas (girasol, soja, etc.), carragenanos, etc. no te lo comas. No por lo que diga la OMS —que ya deberías saber que no es de fiar— sino porque ese producto no es comida.

Leer más:

La guerra del lenguaje (VII): el aumento significativo del riesgo

No pesarte con regularidad aumenta significativamente el riesgo de que engordes (ver).

Hacer dieta aumenta significativamente tu riesgo de engordar (ver).

Comer carnes procesadas aumenta significativamente tu riesgo de contraer cáncer en un 20% por cada 50g de producto (ver).

Fumar aumenta significativamente tu riesgo de contraer cáncer de pulmón (ver)

Una mala dieta a los tres años de edad aumenta significativamente el riesgo de tener un cociente intelectual reducido a los 8 años de edad (ver)

Cuidado con el lenguaje. Tres problemas: “significativo“, “aumento del riesgo” y la cuantificación del riesgo.

Significativo

En lo artículos científicos casi siempre usan el adjetivo “significativo” con el significado de “estadísticamente significativo”. No quiere decir lo que las personas “normales” entendemos por significativo. Lo que dicen es “que no parece debido a la casualidad“, mientras que las personas normales entendemos que es “importante“. La realidad es que un dato insignificante puede ser significativo desde el punto de vista estadístico, y de hecho yo diría que casi siempre es así: casi siempre los científicos nos venden como significativo lo que a efectos prácticos es nimio. Su objetivo es publicar y llenar el currículum, no proporcionar información fiable. Y para eso, todo vale.

Aumento del riesgo

¿Qué interpretas cuando te dicen que hacer X “aumenta tu riesgo”? Que al hacer X estás haciendo algo peligroso. Causa y efecto: interpretas que si haces X es más probable que te suceda algo malo.

Es lo que quieren que pienses, pero no es lo que dicen los datos. Cuando alguien se expresa de esa manera, maneja datos observacionales/epidemiológicos. No pueden asegurar que te estés poniendo en peligro, aunque sin duda quieren que lo creas. Es el modus operandi de los “epidemiólogos”, que nunca van a reconocer la realidad, que es que son simples charlatanes. No hablamos de ciencia, sino de pseudociencia.

¿Qué es en realidad “aumento del riesgo”? Pongamos un ejemplo: clasificamos a las personas en dos grupos: los que se pesan regularmente y los que casi nunca se pesan. Y observamos la evolución de su peso corporal, comprobando que al cabo de un par de años los que se pesan regularmente aumentan de peso en término medio 100g menos que los que no se suelen pesar. Diferencia “significativa” (me sigues, ¿no?). Los “científicos” te dirían en ese caso que “no pesarte regularmente aumenta significativamente tu riesgo de engordar”. La manipulación del lenguaje es muy clara. Piénsalo: yo no me peso, ¿me pone eso en riesgo de engordar? ¿Crees que el ejercicio de levantar todos los días los pies 2cm para subirse a la báscula es clave para no engordar?

En este ejemplo es evidente que pesarse todos los días es un marcador, un indicador, de la determinación de una persona para perder peso. Si te pesas tan a menudo, está claro que te fijas en qué comes, que intentas cuidarte, que posiblemente estás aumentando tu actividad física, etc. No es pesarte regularmente lo que está causando un mejor control del peso. Ambos son efectos de la misma causa: cuidarte.

Pesarse regularmente tiene una relación matemática, estadística, con el peso corporal, pero no es una relación causa-efecto como la expresión “aumenta tu riesgo” nos da a entender. Eso es lo que hay que pensar cada vez que alguien habla de “aumento del riesgo”, que no es necesariamente cierto que nos estemos poniendo en peligro. Nos están engañando con el lenguaje.

La cuantificación del riesgo

Pero los “científicos” no paran ahí a la hora de engañarte. Te van a dar cifras manipuladas, impactantes, que no tienen nada que ver con la realidad.

Por ejemplo, con el tema de la carne procesada te pueden decir que consumir 50g de carne procesada aumenta en un 18% tu riesgo de sufrir en el futuro cáncer colorrectal. Un 18%: eso significa que a 1 de cada 5 le toca esa “lotería”, ¿verdad? Pues no. En primer lugar porque recordemos que nos están engañando haciéndonos creer que una cosa causa la otra, cuando el tipo de estudios que manejan no permite llegar a esa conclusión. Y en segundo lugar porque ese 18% es falso.

Supongamos que el cáncer colorrectal afecta a 50 de cada 100,000 personas (ver,ver). Eso significa que lo que han observado estos “científicos” es que entre las personas que consumen carne procesada, si consumen 50g diarios hay 59 casos por cada 100,000 personas de ese tipo de cáncer. Es decir, 9 personas más por cada 100,000. Eso es un incremento porcentual del 0,01%, aproximadamente. 0.01% no es 18%. Las cifras reales están más cerca de garantizar la inocuidad que de hacer sospechar que exista un peligro.

Solo es un ejemplo, pero la idea es ésa: no te fíes de las cifras que te dan, porque las manipulan para magnificar la importancia (ver).

En cuanto a la cuantificación del riesgo, suele entenderse que si existe una respuesta gradual con la dosis, eso refuerza la sospecha de una relación causa-efecto. Cuando los investigadores dicen que por cada 50g de producto aumenta en un 18% la mortalidad o el cáncer, están dando a entender que sí existe esa respuesta proporcional a la dosis. En el caso concreto de la carne, los datos reales dicen que es un nuevo engaño: había mayor mortalidad entre los que no consumían productos cárnicos que entre los que tenían un consumo moderado (ver). Eso no permite modelar los datos con una relación lineal ni con cualquier otro tipo de relación monótonamente creciente. Si lo que los investigadores creen estar obteniendo con sus datos es evidencia del nocivo efecto del consumo de carne sobre la mortalidad, ¿cómo explican que haya mayor mortalidad en el grupo de menor consumo que en otros grupos?

En resumen

  • Significativo no significa significativo
  • El aumento del riesgo no significa un aumento del riesgo
  • Los más habitual es que los datos numéricos que se nos dan sean un engaño estadístico

NOTA ADICIONAL 1

Los estudios que relacionan tabaco con cáncer de pulmón encuentran relaciones incuestionables: 100 veces más fuertes que las que la OMS nos quiere vender como evidencia científica contra la carne. No hablamos de lo mismo.

NOTA ADICIONAL 2

Pese al terrorismo informativo desencadenado hace unos días por la OMS contra la carne, yo voy a seguir consumiendo productos cárnicos de calidad. No soy partidario de los productos con ingredientes añadidos, como el jamón york o las salchichas de Frankfurt. En mi caso, si los consumo va a ser de forma muy esporádica. Voy a seguir consumiendo jamón serrano y embutido de carnicería sin ningún tipo de miedo (ver). En cuanto a las carnes rojas, me parece MUY razonable evitar cocinarlas directamente sobre las llamas o pasarse quemándolas en la plancha, pero no voy a modificar el consumo dejándome asustar por evidencias tan débiles como las usadas por la OMS (ver). La maniobra es conocida, pues la repiten cada equis tiempo, siempre con la misma falta de fundamento (ver,ver). El ataque de la OMS a la carne no tiene que ver con la carne, sino con la agenda política de la OMS (ver).

Leer más:

Los artículos científicos no siempre son científicos

No hace mucho, hojeando un artículo de Estadella et al. que hablaba de la lipotoxicidad (“Lipotoxicity: Effects of Dietary Saturated and Transfatty Acids“) vi que había un párrafo que relacionaba el hígado graso con el consumo de grasas saturadas. Como en mi opinión es una relación que realmente no existe (ver), empecé a revisar las referencias que se daban en el párrafo en cuestión. Lo que encontré es muy habitual: el texto es “científico” solo en apariencia. La presencia de referencias bibliográficas nos hace creer que hay algo de trasfondo en lo que nos están contando, pero como vamos a ver es imprescindible desconfiar y revisar las referencias que se nos dan.

El párrafo es éste:

Selección_316

Selección_317

Ocho referencias: [18], [59], [60], [61], [62], [63], [64] y [26].

Las analizo una a una:

Selección_318

Autocita, pues es de los mismos autores. En ratas… ni lo leo.

Selección_319

Autocita, pues es de los mismos autores. En ratas… ni lo leo.

Selección_320

Se supone que es una prueba de que el consumo de grasa saturada está asociado a un mayor contenido lipídico en el hígado. Las palabras “liver”, “hepatic” y “saturated” ni aparecen en el artículo.

Selección_321

En ratas. Ni lo leo.

Selección_322

No se presenta ninguna prueba de que exista esa relación entre grasa saturada y mayor contenido de lípidos en el hígado.

Eso sí, creen razonable limitar el consumo porque las grasas saturadas están implicadas en la lipotoxicidad. Es decir, asumen que si hay mayor ingesta habrá mayor lipotoxicidad. ¿De verdad es razonable hacer recomendaciones basadas en corazonadas? En cualquier caso este artículo no aporta pruebas de nada.

Furthermore, because polyunsaturated fatty acids appear to be protective in NAFLD, and long-chain saturated fatty acids mediate lipotoxicity, it is reasonable to limit consumption of saturated fats while increasing consumption of omega 3 fatty acids found in fish and flaxseed oil supplements as well as canola and safflower cooking oils.

Y si alguien encuentra en este estudio el dato del 10% del que hablan Estadella et al. que me lo diga, porque yo no lo he visto en el texto.

Selección_323

La palabra “saturated” solo aparece una vez en el texto para decir que los estudios epidemiológicos sugieren… No voy a seguir referencias a estudios epidemiológicos.

Selección_324

Según el artículo de Estadella et al. esta referencia demuestra que el consumo de ácidos grasos saturados es directamente proporcional al grado de esteatosis hepática. En este estudio participan 43 niños de entre 9 y 14 años. De ellos, 25 no tienen hígado graso, 9 lo tienen de grado medio y otros 9 lo tienen moderado/grave. Es decir, poquísimos datos para un estudio observacional.

Como digo, es un estudio observacional, es decir, miran el hígado, preguntan a los participantes qué comen y de ahí pretenden sacar conclusiones. En la gráfica se muestra el consumo de los distintos macronutrientes en cada uno de los grupos: sin esteatosis (barra blanca), con esteatosis leve (barra negra) y con esteatosis moderada (barra gris).

Selección_326

Para empezar, la gráfica está mal, pues la suma (PRO+CHO+FAT) de las alturas de las barras grises es claramente mayor que la suma de las barras blancas y negras (las barras grises suman 105%, mientras que las otras suman 98-99%. Olvidando eso, los que tenían un mayor grado de esteatosis consumían más hidratos de carbono y más grasa saturada que los que no tenían. El grupo con esteatosis moderada/severa consumía el doble de azúcar al día que los que no tenían hígado graso. Importante ese dato, porque sorprendentemente luego en la tabla 4 el “r” de los carbohidratos simples sale negativo.

In the present study, intake of carbohydrates especially sugars was higher in the FL group compared to the group without FL. SFA intake was increased in parallel to hepatic fatty liver, while fiber consumption was lower in the subjects with FL compared to children without FL.
En este estudio el consumo de carbohidratos, especialmente azúcares, fue mayor en el grupo FL (hígado graso) en comparación con el grupo sin FL. El consumo de grasa saturada se incrementó en paralelo con el hígado graso, mientras que el consumo de fibra fue menor en los sujetos con hígado graso en comparación con los niños sin hígado graso.

Selección_327

Me pregunto qué grasa saturada consumían esos jóvenes. ¿Queso en la pizza? ¿Carne en una hamburguesa acompañada de patatas fritas y una coca-cola? ¿Nata en helados bien cargaditos de azúcar? ¿O era carne de ternera a la plancha con un poco de brócoli y mantequilla? 

Los autores ajustaron los datos por edad, sexo y dieta… Yo no lo entiendo: si únicamente había nueve niños en cada grupo, ¿cómo se pueden ajustar los datos de tan pocos participantes para tener en cuenta edad, sexo y dieta? ¿Y qué es el ajuste según “dieta” cuando tienes menos de diez niños en cada categoría?

Calculan estadísticamente la asociación matemática entre distintos componentes de la dieta y el hígado graso. En el texto y en la tabla 3 (que hemos visto antes) dicen que los que más grasa tenían en el hígado consumían más azúcar, pero el coeficiente “r” de los carbohidratos simples que dan en la tabla 4 es negativo. No lo entiendo. Por cierto, el parámetro “r” de los carbohidratos es mayor que para la grasa saturada. El otro parámetro relativo a los carbohidratos simples, el beta, es el mayor (0.72) de todos los relacionados con la dieta, muy por encima del parámetro beta de la grasa saturada (0.46). Y teniendo en cuenta que en gramos en la dieta de estos chavales hay cuatro veces más gramos de carbohidratos que de grasa saturada, estos datos apuntan claramente a la implicación de los carbohidratos en el hígado graso.

Selección_328

¿Demuestra este estudio proporcionalidad entre consumo de grasa saturada e hígado graso? ¿A partir de un estudio observacional, con una bajísima participación, en el que se les pregunta a niños qué han comido en las últimas 24h (ver) y en el que se encuentra una fuerte relación entre consumo de azúcares e hígado graso? ¿Qué acompañaba esa grasa saturada? ¿En qué productos se consumía? ¿El niño se come una pizza y culpamos del efecto en la salud a la grasa saturada del queso mozzarella en lugar de al trigo de la base de la pizza?

Y ya que estamos, ¿por qué solo le buscan las cosquillas a la grasa saturada? Si ya saben que es la única posible responsable no hace falta el estudio, y si no saben la causa deberían analizar todas las posibilidades, no solo la única que quieren que salga positiva. Esto es poner un único sospechoso en la rueda de reconocimiento.

Selección_325

Otro estudio observacional, pues se recolectan datos de los participantes. Los autores miden un parámetro llamado NPY (Neuropeptide Y) y sus propios datos dicen que ese parámetro está más relacionado con el consumo de carbohidratos que con el consumo de grasa saturada. Y si no fuera por un punto que está a la derecha en la gráfica que pongo abajo, y que corresponde a un valor extremo de consumo (¿600g/día de carbohidratos?), la relación sería mucho más clara, como he representado en rojo. (¿Por qué intentarían ajustar los puntos a una recta cuando es evidente que la relación no es lineal?)

 

Selección_330 Selección_329

 

we observed a positive correlation between saturated fatty acids intake, AgRP (r=0.54) and NPY (r=0.48) and between carbohydrate intake and NPY concentration (r=0.55) (Figs 2a, b and 3) only in NAFLD obese adolescents.

En el NPY, r=0.48 para las grasas saturadas, r=0.55 para los carbohidratos.

Acabamos de ver en la gráfica y en el texto, que la relación entre NPY y carbohidratos es más fuerte que la relación entre NPY y grasa saturada. Sin embargo en las conclusiones de este artículo recomiendan consumir carbohidratos complejos y reducir el consumo de grasas, especialmente las saturadas. O en otras palabras, en un estudio observacional basado en 50 adolescentes que siguen una dieta altísima en hidratos de carbono (50% de las calorías) han encontrado una relación entre consumo de carbohidratos y cierto parámetro, pero esa relación la ignoran y nos hablan de una relación estadísticamente menos fuerte. Y nos dicen que consumamos el macronutriente que tenía la relación más fuerte y que evitemos consumir el que tenía la relación más débil. Y, como digo, todo esto viniendo de un estudio observacional con poquísimos participantes. A mí no me convence mucho.

Igual que en el estudio anterior, cabe preguntarse de dónde sacaban la grasa saturada los participantes. ¿Comida basura o comida de verdad con grasas naturales? ¿Culpamos a la grasa saturada de estar presente en la comida basura junto a los carbohidratos?

 

En resumen, las referencias citadas son:

  • tres artículos en ratas, y, aunque nos sorprenda, las ratas no son seres humanos pequeños
  • un estudio que no tiene nada que ver con el tema,
  • otro estudio que no aporta ninguna prueba,
  • un estudio que cita estudios epidemiológicos, y finalmente
  • dos estudios epidemiológicos con poquísimos participantes en los que la relación entre carbohidratos e hígado graso es como mínimo tan fuerte como entre grasa saturada e hígado graso.

Y por cierto, acaba de publicarse un estudio del mismo tipo, observacional, basado en miles de personas que relaciona el consumo de bebidas azucaradas con el hígado graso (ver). Eso a partir de cuestionarios semicuantitativos sobre consumo. La epidemiología no es ciencia: es cachondeo. Y los que la practican no son científicos, son echadores de cartas que se creen científicos. Me pregunto si habría que prohibir publicar estudios epidemiológicos, pues es evidente que son una fuente constante de desinformación. Es una pistola en manos de un mono. Y el mono ha demostrado con creces que carece de la capacidad para hacer un uso responsable de la pistola.

we think the greatest problem in nutrition and obesity research is not ignorance; it is the illusion of knowledge created by pseudoscientific methods. These methods have led to the current state of confusion regarding what constitutes a healthy diet […]

federally funded nutrition researchers have demonstrated scientific incompetence over many generations by presenting anecdotal evidence as scientific evidence. As such, there is no scientific foundation to past or current nutrition guidelines. As a result, the public is both confused and (correctly) skeptical of government recommendations because they perceive the guidelines to constitute meaningless political statements. (ver,ver)

Creemos que el gran problema respecto de la obesidad y la nutrición no es la ignorancia; es la ilusión de conocimiento creada por métodos pseudocientíficos. Esos métodos nos han llevado al actual estado de confusión respecto de lo que constituye una dieta saludable. […]

Los investigadores sobre nutrición financiados federalmente han demostrado incompetencia científica durante varias generaciones, presentando evidencia anecdótica como evidencia científica. Como tal, no existe fundamento científico ni para las pasadas ni para las actuales recomendaciones dietarias. Como resultado, el públlico está confuso y es (acertadamente) escéptico respecto de las recomendaciones gubernamentales porque percibe que esas recomendaciones constituyen declaraciones políticas sin sentido.

Mi experiencia con una dieta no reducida en grasa saturada: