Hacia una estimación más realista de la distribución del ingreso en México

Por:Alfredo Bustos y Gerardo Leyva

Introducción

México es un país que exhibe grandes carencias y desigualdades de todos tipos, pero las expresiones numéricas de estos problemas no siempre han sido lo suficientemente precisas. De hecho, la información estadística básica disponible nos ha inducido con toda seguridad a subestimar la desigualdad y posiblemente también a sobrestimar la pobreza. Por ejemplo, los datos de la Encuesta Nacional de Ingresos y Gastos de los Hogares (ENIGH) indican que para 2012 alrededor de 44% de los hogares recibía ingresos por debajo de la línea de bienestar establecida por el Consejo Nacional de Evaluación de la Política de Desarrollo Social (Coneval).2 Al mismo tiempo, según lo publicado por el Instituto Nacional de Estadística y Geografía (INEGI), el 10% de los hogares con mayores ingresos percibía “solo” 19 veces lo que el 10% con menores ingresos. Sin embargo, el estudio de la distribución de ingresos mediante la ENIGH está limitado principalmente por dos causas:

1. Los ingresos verdaderos de los hogares en la encuesta son más altos que lo que ellos reportan (lo que denominaremos “subreporte”), por lo que la pobreza por ingresos parece mayor, pues hogares cuyos ingresos verdaderos son mayores al umbral son considerados dentro de la pobreza, y

2. Hay hogares con ingresos mucho mayores que los reportados pero que no están incluidos en la muestra de la ENIGH (lo que denominaremos “truncamiento”). Entonces, si se usa solo la ENIGH, la desigualdad es subestimada, ya que la diferencia entre ingresos altos y pequeños será menor que la verdadera.

En este trabajo ejemplificaremos la aplicación de un método de ajuste estadístico de modelos a datos de la encuesta, que usa además información fiscal (anonimizada) y de cuentas nacionales, y que, reconociendo la presencia simultánea de las limitaciones señaladas, mejora la estimación de la distribución del ingreso. Los resultados aún preliminares del ajuste óptimo muestran una estimación de casi 30%3 de hogares con ingresos inferiores a la línea de bienestar del Coneval, estimación que es una tercera parte menor a la que resulta de usar los ingresos no corregidos reportados por la encuesta, así como una cuantificación de la desigualdad significativamente mayor, con una razón de los ingresos del último decil al primero de casi 57 veces.

La discusión sobre la desigualdad económica entre las personas y hogares, tanto de riqueza como de ingresos, ha vuelto recientemente al centro de la atención de políticos y académicos. El capital en el siglo XXI, de Thomas Piketty, aparece en este contexto y ejemplifica el interés por el tema: se ha convertido en un bestseller en Europa y Estados Unidos. Otros destacados economistas, como Joseph Stiglitz (2013, 2015a, 2015b), Paul Krugman (2009) y Tony Atkinson (2015), han venido argumentando que la descontrolada desigualdad no solo es reflejo de un sistema económico injusto, sino que a fin de cuentas es un freno para la eficiencia y el crecimiento económico. Autores como Wilkinson y Pickett van más allá para señalar que las sociedades más sanas, felices y funcionales son aquellas en las que la desigualdad económica es menos aguda. En nuestro país, el libro Desigualdad extrema en México: Concentración del poder económico y político (2015) de Gerardo Esquivel, y el trabajo “Los ingresos altos, la tributación óptima y la recaudación posible” (2014), de Campos, Chávez y Esquivel, detonaron una oleada de reflexiones y un renovado interés sobre la desigualdad en México.

Por otra parte, la atención a los retos que la alta desigualdad impone al progreso de la humanidad ha llevado a incorporar el tema en los Objetivos de Desarrollo Sostenible (ods)4 con los que la Organización de las Naciones Unidas se ha propuesto guiar los esfuerzos de desarrollo alrededor del mundo de aquí al 2030. Así, el ods número 10 se refiere a “la reducción de la desigualdad entre países y al interior de estos”. Más aún, en el “Quinto foro mundial de la ocde sobre estadística, conocimiento y política: Transformando las políticas, cambiando vidas”, celebrado recientemente en Guadalajara, Jalisco, la discusión sobre las diferentes formas de desigualdad ocupó un papel central y, entre otras cosas, se mencionó que los niveles de desigualdad en América Latina siguen estando entre los más altos del mundo a pesar de que los “súper-ricos” escapan a la cobertura de los instrumentos estadísticos tradicionales.5 En este sentido, es de destacarse que el Grupo de Expertos de Alto Nivel sobre la Medición del Desempeño Económico y el Progreso Social (sucesor de la Comisión Stiglitz, Sen, Fitoussi) se ha propuesto, entre otras cosas, trabajar en la integración de las fuentes microeconómicas y macroeconómicas para lograr que las estadísticas arrojen una imagen más realista de lo que ocurre con la desigualdad en los países.6

De esta manera, el renovado interés por la desigualdad viene necesariamente de la mano de esfuerzos importantes para medirla de la mejor manera posible. Sin embargo, su correcta medición es bastante menos trivial de lo que pudiera parecer. Para el análisis de la desigualdad suele recurrirse a encuestas de ingresos de los hogares o a registros fiscales, pero ambas fuentes presentan limitaciones que en mayor o menor medida arrojan cifras imprecisas sobre el tema, dado que las encuestas no captan suficientemente bien la parte más alta de la distribución del ingreso y los registros fiscales pueden presentar una imagen incompleta, sobre todo de los grupos de menores ingresos o de aquellos que se sustraen a las acciones de fiscalización impositiva.

Si ponemos los reflectores sobre las encuestas de ingresos de los hogares, observamos que —de conformidad con lo planteado originalmente por Fernando Cortés (2001) y retomado luego por Gerardo Leyva (2004)— suelen estar afectadas por dos problemas: la subdeclaración y el truncamiento. En consecuencia, el ingreso total de los hogares estimado por una encuesta de ingresos normalmente muestra un déficit más o menos grande cuando se compara con otras cifras de ingresos de los hogares que se consideran más confiables en el agregado, tales como el ingreso de los hogares que reporta el Sistema de Cuentas Nacionales (SCN).7

Para corregir el déficit, ha sido práctica común enmendar o ajustar los valores declarados de ingreso en la encuesta, de manera que el nuevo ingreso total estimado de los hogares coincida con el del SCN. Es decir, dado que normalmente el ingreso de los hogares según el SCN es mayor que el de las encuestas de ingresos de los hogares, el ajuste a cuentas supone repartir la diferencia entre los hogares en la muestra (ver la Gráfica 1). Se han sugerido en la literatura muchos procedimientos para la realización de esta tarea. Todos ellos, sin embargo, se basan en supuestos más o menos arbitrarios. En el caso mexicano, el déficit ha sido siempre importante, por lo que la elección de uno u otro método se torna de central importancia, toda vez que arrojará no solo una versión diferente de la magnitud de la desigualdad, sino también de la pobreza.8

En ausencia de métodos sólidos y convincentes para determinar qué parte del déficit se debe a un subreporte de ingresos y qué parte al truncamiento, frecuentemente se ha actuado como si solo una de las causas del déficit estuviese presente. De este modo, cuando se supone que el truncamiento no es causa del déficit, la parte de la diferencia correspondiente a los súper-ricos se repartirá entre los hogares captados por la encuesta, aumentando artificialmente el ingreso de estos. La pobreza, por otro lado, podrá ser subestimada al transferir (¡solo en el papel!) recursos de estos súper-ricos a hogares que se ubican a todo lo largo de la distribución reportada por la encuesta, incluyendo a aquellos que de otro modo serían considerados en condiciones de pobreza.

Por otra parte, cuando se supone que el truncamiento es la única causa del multicitado déficit, este se distribuirá únicamente entre los hogares con mayores ingresos (por ejemplo, el 10 o 20% con mayores ingresos, a través de una regla de asignación más o menos arbitraria).9 En consecuencia, la desigualdad se vuelve aún más extrema (en el papel) puesto que la solución al truncamiento termina abultando los ingresos de los hogares en la parte alta de la distribución, bajo el supuesto de que los hogares que integran el 80 o 90% con menores ingresos los declaran en la encuesta sin error, por lo que no requieren de ajuste alguno.

Nuestra propuesta

En vista de todo lo anterior, el área de investigación del INEGI inició un proyecto, aún en curso, para proponer formas alternativas de estudiar la distribución del ingreso en México, aprovechando la información disponible sobre el tema (encuestas, cuentas nacionales y registros fiscales). Aunque nuestra propuesta todavía es preliminar, sentimos que se encuentra en un nivel de avance tal que publicarla para su discusión por parte de la comunidad interesada en estos temas permitirá identificar limitaciones a vencer, además de avenidas no exploradas por nosotros, siempre con el fin de mejorarla y lograr la representación estadística más realista posible de la distribución del ingreso en México.

Método

Decidimos recorrer un camino alternativo, en particular cuando nos enfocamos en la distribución del ingreso. En principio, decidimos no ajustar, modificándolos, los valores de ingresos declarados en la encuesta, sino utilizarlos como una de varias fuentes para generar una distribución del ingreso más verosímil.

Dado que uno de nuestros principales intereses es reducir la arbitrariedad, requerimos un criterio10 como guía para la comparación entre los modelos alternativos que ajustamos a los datos, y así poder elegir el mejor de entre los varios probados. Este criterio contempla tres condiciones: (1) se basa en los valores observados por la encuesta, (2) toma en cuenta el diseño de muestreo hasta donde esto sea posible y (3) hace compatibles los resultados de la encuesta con las cifras del SCN y del Servicio de Administración Tributaria (SAT), a fin de contribuir a que este ejercicio se acerque más a “la realidad”.

La propuesta consiste en el ensamble de procedimientos ya disponibles pero dispersos en la literatura: (1) verosimilitud máxima log-, pero (2) pseudo-, ya que no es posible incluir todas las consecuencias del diseño muestral, e (3) imponer condiciones a manera de restricciones para incluir de ese modo las contribuciones de otras fuentes. De ahí el nombre: Máxima Pseudo Log-Verosimilitud Restringida (PLVR).

Usando rutinas generales de cómputo, se ajustaron a los datos cinco familias alternativas de modelos distribucionales que se han utilizado en la literatura de la distribución del ingreso.11 Ello porque apegarse a una única familia solo aumentaría la arbitrariedad del procedimiento

Además, ya que la teoría relevante para discriminar entre modelos ajustados a datos muestrales está todavía en desarrollo, recurrimos a otras medidas sobre los ajustes (en forma de cuantiles, cocientes y coeficientes de Gini) para ayudarnos a decidir qué ajuste elegir como el “más cercano a la realidad” de entre los que probamos. En otras palabras, aunque no hemos acabado completamente con la arbitrariedad, sí hemos conseguido un método que supera limitaciones de otros métodos disponibles, aporta a la discusión y arroja resultados razonables.

Resultados

Además de los datos de la ENIGH y del SCN para el año 2012, se trabajó con información anonimizada sobre casi 3 millones de declaraciones de impuestos individuales para ese mismo año. Sabíamos que enfrentábamos retos de falta de homogeneidad en unidades (hogares vs. personas) y entre los ingresos declarados al SAT y los contemplados por la ENIGH y el SCN, pero si lográbamos alcanzarla, estaríamos en condiciones de producir resultados de reconstrucciones de toda la distribución del ingreso en México compatibles con las tres fuentes de información, algo de lo que no conocemos antecedentes en la literatura. Lo anterior se logró incorporando valores conocidos de los registros del SAT y el SCN como condiciones que deben satisfacer los modelos PLVR ajustados.

Específicamente, es necesario que las condiciones a satisfacer sean tales que describan adecuadamente la presencia de situaciones extremas en los ingresos más altos. Además, en esos niveles se vuelve difusa la diferencia entre personas y hogares, lo que actuaría a nuestro favor. Dado que hacen referencia a ingresos extraordinariamente altos, las diferencias entre los registros del SAT y las fuentes del INEGI en términos de, por ejemplo, la incorporación o no de fuentes de ingreso como la renta imputada de la vivienda o de las transferencias en especie, harían poca diferencia en nuestra prueba de concepto.

Entonces, a la condición de que el ingreso promedio según la distribución ajustada debería ser igual al ingreso de los hogares en el SCN, se sumó la condición de que todos los modelos ajustados consideran el mismo umbral establecido con base en la información del SAT, y que es tal que solo 1 de cada 100 mil hogares tiene ingresos trimestrales superiores al mismo. La determinación de dicho umbral supone que cada uno de los contribuyentes de mayores ingresos cuenta como un hogar y que el total de hogares en el país es de casi 31.5 millones. Cabe señalar que dicho umbral dio lugar al ajuste óptimo.

Ahora, si aceptamos el modelo que optimiza el valor del criterio (ver la Gráfica 2), encontramos que:

Hay evidencia de subdeclaración significativa y creciente de ingresos a lo largo de todo su recorrido en la encuesta, como es de esperar, así como un truncamiento importante en la parte más alta. Así, observamos un subreporte incluso para los hogares de menores ingresos, aunque el porcentaje de ingreso subreportado se incrementa a medida que se considera a los hogares con mayores ingresos. En consecuencia, esta estimación más realista de la distribución del ingreso en México resulta en una mayor desigualdad pero también en una menor pobreza monetaria.12

La brecha entre los que más tienen y los que menos tienen resulta más grande de lo que se estimaba con la fuente tradicional, de manera que el decil X habría recibido en 2012 casi 57 veces lo obtenido por el decil I, contra las 19 veces que señalan las cifras de la ENIGH. Lo anterior, sin embargo, queda por debajo de las más de 83 veces del cálculo realizado por Esquivel (2015) para Oxfam.

El 1% de los hogares en la parte más alta de la distribución concentra casi tanto ingreso como el 60% de los hogares con menores ingresos. Así, el conjunto de los deciles I al VI recibirían 17.2% del ingreso total, mientras que el decil X recibiría poco más de 50%, y el 1% más alto recibiría 17.3%.

Incluso al interior del 1% más alto, encontramos diferencias importantes. El 0.1% con mayor ingreso percibe 5.2% del ingreso total, es decir, 52 veces su tamaño relativo en el total de los hogares. Para el 0.01%, el factor crece a 146 veces; para el 0.001%, 392 veces, y para el 0.0001%, mil 22 veces, lo que refleja una importante desigualdad incluso dentro del grupo de hogares con mayores ingresos.

Esta desigualdad se refleja en un coeficiente de Gini (que indica menor desigualdad conforme más se acerca a cero y mayor desigualdad conforme más se acerca a uno) con un valor de 0.630, lo que contrasta con el 0.440 de las cifras originales de la ENIGH. Cabe señalar que este Gini tan alto solo sería comparable internacionalmente si los datos de otros países fueran ajustados con la misma metodología (PLVR).

La metodología utilizada sugiere que la incidencia de pobreza monetaria sería de 30% de los hogares, cifra inferior al 44% que resulta de comparar los ingresos de los hogares reportados por la ENIGH con la línea de bienestar del Coneval. Sin embargo, aun si en efecto la medición de incidencia de pobreza resulta menor de lo que se estimaría con las cifras no corregidas de la ENIGH, que por lo visto subestiman los ingresos de los hogares a lo largo de toda la distribución, el tamaño del reto que la pobreza plantea sigue siendo mayúsculo y su atención prioritaria continúa siendo inaplazable. Por otra parte, reconocemos que aún debemos incorporar criterios adicionales para una más precisa reconstrucción de la parte baja de la distribución del ingreso; además, todavía no hemos desarrollado la manera de vincular la nueva distribución con los datos de carencias (educación, alimentación, salud, seguridad social, vivienda y servicios en la vivienda) por hogar necesarios para la medición de la pobreza multidimensional.

Lo que falta

Para ayudarnos a entender más cabalmente las implicaciones de estos resultados y darnos una mejor idea de qué tan razonables son, resulta conveniente hacer comparaciones internacionales utilizando la misma metodología. Para ello, nos hemos acercado a organismos internacionales a fin de hacer las comparaciones adecuadas, así como para tener retroalimentación e intercambiar ideas con el objeto de sumar esfuerzos en el interés común de representar mejor la realidad por medio de las estadísticas. También es necesario realizar comparaciones en el tiempo para el caso de México, cosa que iniciaremos en cuanto dispongamos de la información anonimizada de registros fiscales que para ello se requiere. Es fundamental también abrir el debate con los expertos nacionales y extranjeros para hacer sinergias que nos ayuden a conocer mejor la realidad de la distribución del ingreso en México, con todas sus consecuencias. Después de todo, el papel de la estadística en la sociedad es el de describir la realidad de la manera más verosímil posible. 

Alba Guerra, Enrique de, Información estadística que se requiere para conocer el comportamiento económico de las familias, vol. II, Banco de México, Departamento de Estudios Económicos, México, 1967.

Altimir, Oscar, “Income Distribution Statistics in Latin America and Their Reliability”, Review of Income and Wealth, vol. 33, núm. 2, junio de 1987, pp. 111-155.

Atkinson, Anthony B., Inequality: What Can Be Done?, Harvard University Press, 2015.

Boltvinik Kalinka, Julio, y Enrique Hernández Laos, Pobreza y distribución del ingreso en México, Siglo XXI Editores, México, 1999.

Bustos, Alfredo, “Estimation of the Distribution of Income from Survey Data, Adjusting for Compatibility with Other Sources”, Statistical Journal of the IAOS, vol. 31, núm. 4, 2015, pp. 565-577.

Campos Vázquez, Raymundo Miguel, Emmanuel Salvador Chávez Jiménez y Gerardo Esquivel Hernández, Los ingresos altos, la tributación óptima y la recaudación posible, Premio Nacional de Finanzas Públicas 2014 <http://www.cefp.gob.mx/portal_archivos/convocatoria/pnfp2014/primerlugarpnfp2014.pdf>.

Cortés-Cáceres, F., “El cálculo de la pobreza y la desigualdad a partir de la Encuesta Nacional de Ingresos y Gastos de los Hogares”, Comercio Exterior, vol. 51, núm. 10, 2001, pp. 879-884.

Esquivel, Gerardo, Desigualdad extrema en México: Concentración del poder económico y político, Oxfam, México, 2015.

Fesseau, Maryse, y Maria Liviana Mattonetti, “Distributional Measures Across Household Groups in a National Accounts Framework: Results from an Experimental Cross-Country Exercise on Household Income, Consumption and Saving”, OECD Statistics Working Papers, núm. 2013/04, noviembre de 2013 <http://dx.doi.org/10.1787/5k3wdjqr775f-en>.

Hernández-Laos, Enrique, “Tendencias recientes de la distribución del ingreso en México, 1977-1984”, en La economía mexicana actual: Pobreza y desarrollo incierto, Universidad Autónoma Metropolitana-Iztapalapa, México, 1991.

Krugman, Paul, The Conscience of a Liberal, W. W. Norton & Co. Inc., Nueva York, 2009.

Leyva-Parra, Gerardo, El ajuste del ingreso de la ENIGH con la contabilidad nacional y la medición de la pobreza en México, Sedesol, Serie Documentos de Investigación, México, 2004.

Martínez, Ifigenia, Distribución del ingreso en México: Tendencias y proyección a 1980, vol. 1, Siglo XXI, México, 1970.

Piketty, Thomas, El capital en el siglo XXI, Fondo de Cultura Económica, México, 2015.

Stiglitz, Joseph E., The Price of Inequality: How Today’s Divided Society Endangers Our Future, W. W. Norton & Co. Inc., Nueva York, 2013.

—-, The Great Divide: Unequal Societies and What We Can Do About Them, W. W. Norton & Co. Inc., Nueva York, 2015.

—-, Rewriting the Rules of the American Economy: An Agenda for Growth and Shared Prosperity, W. W. Norton & Co. Inc., Nueva York, 2015.

Wilkinson, Richard, y Kate Pickett, The Spirit Level: Why Equality is Better for Everyone, Tantor Media Inc., Connecticut, 2011.

1 El presente artículo se deriva de un trabajo de investigación en proceso. Sus actuales resultados, así como las opiniones y comentarios de los autores, son a título personal y no necesariamente reflejan los de la institución para la cual trabajan.

2 Por consistencia con el resto de la exposición y solo con fines ilustrativos, esta cifra fue obtenida calculando la incidencia de pobreza a partir de la “línea de bienestar” del Coneval, usando la información de la ENIGH y llevándola al trimestre y al hogar. Ello puede dar lugar a diferencias con el cálculo de la incidencia de pobreza obtenido cuando se usa el módulo de condiciones socioeconómicas, tal como hace Coneval para el cálculo de la pobreza multidimensional.

3 Este es el valor que resulta de calcular la intersección entre la línea de bienestar y el modelo ajustado.

4 <https://sustainabledevelopment.un.org/index.php?menu=1300&gt;

5 Ver en especial la intervención de Nora Lustig en la sesión 4.a. “Plenaria: Diálogo de Alto Nivel sobre ‘¿Cuáles son las implicaciones de la creciente desigualdad?’”, <http://www.oecd-5wf.mx/>.

6 <http://www.oecd.org/statistics/measuring-economic-social-progress/Main%20conclusions%20HLEG%20meeting%20Jan%202014.pdf#2&gt;

7 El “Ajuste a Cuentas Nacionales” es una práctica extendida en materia de medición de pobreza, cuando menos en América Latina, donde el trabajo de Altimir (1987), adoptado por la CEPAL, ha sido quizás el más influyente. En México, podemos trazar los primeros esfuerzos en esta materia con lo hecho por Ifigenia Martínez (1970), Enrique de Alba (1967), Enrique Hernández Laos (1991) y Julio Boltvinik (1999). Incluso la OCDE se encuentra actualmente desarrollando un proyecto para compatibilizar los registros de ingresos de los hogares provenientes de encuestas y de cuentas nacionales. Cabe señalar que en ese marco destaca el caso de México como el que muestra las diferencias más extremas (Fesseau, 2013).

8 Ya se señaló que, cuando se decide excluir del ajuste o reconstrucción de la distribución del ingreso a la población con ingresos más bajos, se está sobrestimando la pobreza.

9 Aquí hay que tomar en cuenta que al “ajustarse” únicamente el ingreso, la muy socorrida relación entre este y otras variables económicas (consumo, riqueza, etcétera) resultará distorsionada.

10 Cuyo desarrollo puede encontrarse en el artículo publicado por Alfredo Bustos en el volumen 31:4 de la revista de estadística de la asociación internacional de estadística oficial (IAOS, por sus siglas en inglés), diciembre de 2015.

11 Estamos hablando de las distribuciones Gama, Pareto, Log normal con dos parámetros; Gama Generalizada con tres, y Beta Generalizada del tipo dos, con cuatro.

12 Se habla de pobreza monetaria para señalar que se trata de la relación entre el ingreso de los hogares y el valor monetario de la línea de bienestar del Coneval, a fin de hacer claro el contraste con la medición oficial de pobreza en México que es multidimensional, respecto de la cual no reportamos ningún ejercicio en este artículo.

Fuente:http://estepais.com/articulo.php?id=573&t=hacia-una-estimacion-mas-realista-de-la-distribucion-del-ingreso-en-mexico1

Varianza: Cambio climático: ¿mito o realidad?

Por: Gerardo Herrera Corral

Groenlandia significa ‘Tierra verde’. Fue bautizada con ese nombre por Erik “der Rote” Thorvaldsson en el año 982, precisamente porque en aquel entonces era una tierra verde. Por esa época se asentaron en la isla los primeros colonos europeos. Según los registros históricos, alrededor del año 1410 Groenlandia empezó a enfriarse tanto que las áreas pobladas desaparecieron.

En la década de los años setenta el enfriamiento global era inminente. Una catástrofe climática aparecía en los titulares de los diarios que anunciaban la llegada de una nueva era glacial. La temperatura de nuestro planeta venía cayendo desde 1940 (ver la Gráfica 1). Antes de eso, la temperatura había subido y bajado como lo ha hecho siempre desde que existe nuestro planeta.

Mucho antes de los setenta, el 4 de julio de 1923, el periódico The New York Times había publicado una nota con el título “MacMillan Sails North” (“MacMillan navega al norte”), en la que se leía: “El explorador espera determinar si la nueva era de hielo se aproxima”. En aquellos tiempos, al igual que en los años setenta, también se temía la llegada de una nueva era fría para nuestro planeta. El avance de los glaciares en los 70 años anteriores parecía indicarlo y el capitán MacMillan prometió traer consigo la prueba científica.

Donald Baxter MacMillan había acompañado a Robert Peary en una expedición 26 años antes de que este afirmara haber alcanzado el Polo Norte. Se hizo famoso cuando en 1913 viajó al norte de Groenlandia para verificar la existencia de la Isla Crocker que había sido avistada por Robert Peary en uno de sus viajes. MacMillan anunció que no existía ese territorio nuevo, sino que solo se había tratado de un espejismo visto por Peary. La desilusión del estadounidense al no tener tierra que conquistar empeoró cuando la expedición quedó varada en el hielo hasta 1917, cuando finalmente fue rescatada por el capitán Robert Bartlett.

En su misión, patrocinada por la National Geographic Society, MacMillan reportó haber observado el más grande glaciar, así como un incremento general de glaciares no observados antes. En septiembre de 1924, The New York Times declaró que la amenaza era real: “MacMillan reporta signos de una nueva era glacial”.1

Después, la temperatura comenzó a subir hasta alcanzar un incremento de 0.6 grados, según indican las mediciones de aquellos años. El planeta se recuperaba para que, más tarde, en los años cuarenta, la temperatura comenzara nuevamente a caer, alarmando a una nueva generación de meteorólogos con el mismo gélido escenario que llevó a MacMillan a buscar glaciares.

Hoy, el incremento de 0.6 grados se nos presenta como la llegada del peor de los escenarios: un cataclismo de autodestrucción, la desaparición de las playas y de Venecia, la hecatombe de Bangladés, el fin de los osos polares, epidemias, inundaciones y calamidades sin límite. Lo nuevo de nuestra época no es el continuo ir y venir de las temperaturas sino la autoflagelación y una nueva doctrina en la que el ser humano es la plaga del planeta. El calentamiento global ha sido provocado por nosotros y pronto acabará con nosotros mismos (ver la Gráfica 1).

El temor histérico que hoy vemos en los medios de comunicación por el aumento de temperatura ya se había dado en la década de los setenta debido a su descenso, como ocurrió también en los años veinte. Curiosamente, de 1920 a 1940 no hubo calentamiento sino recuperación de la temperatura.

A esta época de temor ante la inminente caída de las temperaturas que se dio en los setenta se le conoce hoy como la “falacia de la era de hielo”. Los escépticos ante la preocupación actual por el calentamiento global a menudo usan esta variabilidad en la opinión y la interpretación de los datos para desacreditar la posición contemporánea que es mayoritaria y alarmante en favor del calentamiento.

Si bien esto parece mostrar fenómenos sociales naturales, tendencias de la moda y los estragos de un traumático abandono del paraíso y la llegada del apocalipsis, no creemos que sea un buen argumento en contra de la doctrina del calentamiento global porque la comprensión de los fenómenos ha mejorado y porque es de sabios cambiar de opinión.

Al comparar los cambios de temperatura reportados en 1975 con los más recientes,3 llama la atención que los valores sean tan diferentes. Si bien los de 1975 se refieren solo al hemisferio norte, uno esperaría algún tipo de correlación, una correspondencia convincente o una explicación del error de aquellas mediciones, pero no discutiremos aquí este insidioso aspecto histórico (ver la Gráfica 2).

El año pasado la nasa (National Aeronautics and Space Administration) publicó los datos obtenidos con sus mejores computadoras sobre el comportamiento de las temperaturas y las precipitaciones pluviales para los próximos 100 años. Desde entonces (junio de 2015) todos citan a esta autoridad que constituye una agencia aeroespacial de éxito histórico, salvo por algunas fallas de poca importancia.

Los datos climáticos de la nasa ofrecen un pronóstico de temperaturas máximas y mínimas diarias, así como información sobre las precipitaciones en todo el planeta en el periodo 1950-2100, con una resolución de 25 kilómetros cuadrados. Lo que los servicios meteorológicos regionales no consiguen hacer para los siguientes tres días, nasa lo ofrece para un periodo de 150 años. Una de las gráficas publicadas por el nuevo paradigma de modelación se muestra aquí (ver la Gráfica 2).

En su libro Cómo mentir con estadísticas4 —un clásico—, Darrell Huff dice: “Supongamos que lo que usted quiere es ganar una discusión, impresionar al lector, moverlo a la acción, venderle algo. Para esto, al gráfico le falta sentimiento. Corte la parte de abajo. Ahora sí (además ahorra papel, algo que usted puede apuntar en caso de que algún criticón objete su engañoso gráfico)”. Y también señala que “es la misma gráfica. Nada ha sido falsificado excepto la impresión que da”.

En la gráfica de temperaturas publicada por nasa giss (Goddard Institute for Space Studies), que aquí reproducimos tal cual (ver la Gráfica 2), se puede ver que el eje vertical ha sido cortado por abajo aun cuando los datos se salen de la escala. De esta manera se enfatiza el crecimiento del cambio en la temperatura. La escala vertical ayuda a mostrar que la temperatura aumentó y la línea roja “guía al ojo” de manera conveniente. En algunas reuniones de discusión sobre el análisis de datos en las que he participado, el colocar una línea así costaría una buena reprimenda por parte de la audiencia. Los especialistas en análisis de datos consideran que es una manera de engañar. No obstante, en los medios de comunicación es muy útil porque no solo guía al ojo, sino que guía también las ideas del lector (ver la Gráfica 3).

Pero, ¿por qué detenerse en solo truncar la gráfica por abajo para amplificarla por arriba? Cuenta usted con más trucos. Haga de su modesto incremento en temperatura algo más notable. ¡Cambie usted la proporción de los ejes horizontal y vertical! Su intervalo de tiempo en el horizontal ha crecido en un 30% con respecto al que tenía en 1975. Ahora cuenta con datos por 40 años más, pero la escala vertical sigue teniendo como máximo 0.6. Con estos cambios le da usted más vida al efecto deseado.

Como dato curioso mostramos la información sobre precipitación en la República Mexicana proporcionada por el Servicio Meteorológico Nacional5 (ver las gráficas 4 y 5). El intervalo de 74 años que va de 1941 a 2015 abarca los dos periodos de enfriamiento y calentamiento global de 0.8 grados. Es decir, en las gráficas de precipitación aparece el periodo en que nuestro planeta se enfrió 0.8 grados centígrados en muy poco tiempo (35 años) y luego se calentó en un periodo más largo de 50 años por la misma cantidad de 0.8 grados.

Patrick Moore es uno de los fundadores de la organización ecologista Greenpeace y fue miembro de la misma de 1971 a 1986. Con un doctorado en Ecología, Moore decidió salir de Greenpeace porque consideraba que hubo un cambio en la organización con el que se abandonó la base científica para adoptar posturas políticas. Sobre el cambio climático señala: “[…] soy estudiante de la historia y la filosofía de la ciencia y sé que el método científico no ha sido aplicado de manera tal que podamos probar que el bióxido de carbono está causando que la Tierra se caliente. Estoy convencido de que el futuro mostrará que toda la histeria del cambio climático fue una completa fabricación”.6

Por cierto, esto también vale para el pasado. La histeria de la década de 1920 ante la inminencia de una era glacial y la de los años setenta por la llegada de una nueva era de hielo, hoy nos parece una curiosidad sociológica como muchas otras de carácter apocalíptico. EstePaís

1

2 US National Academy of Sciences, “Understanding Climatic Change: A Program for Action”, 1975 <https://ia801806.us.archive.org/7/items/understandingcli00unit/understandingcli00unit.pdf>.

3 NASA GISS <http://data.giss.nasa.gov/gistemp/graphs/>.

4 Darrell Huff, How to Lie with Statistics, W.W. Norton & Company, Nueva York, 1954.

5 <http://smn.cna.gob.mx/>

6 <https://www.youtube.com/watch?v=NzVMSxszudo>

Fuente:http://estepais.com/articulo.php?id=590&t=varianzacambio-climatico-mito-o-realidad-

¿Cómo crear más oportunidades de empleo juvenil?

Por

La falta de pertinencia de los estudios es una de las causas del desempleo juvenil

Foto: Luftphilia

¿Cuál es la perspectiva laboral de los jóvenes que están estudiando en los niveles medio y superior en México? Recientemente, el Instituto Nacional de Estadística y Geografía (INEGI) de México reportó que casi la mitad (43%) de todos los desempleados del país son profesionistas: gente con nivel medio superior y superior. La “élite” y minoría dado que más de la mitad de los niños que entran a la primaria no terminan la preparatoria (nivel medio superior). De los ocupados con ese nivel educativo, más de un tercio tienen un empleo informal, lo cual alimenta el círculo vicioso del empleo precario. ¿Cuáles son las soluciones para revertir la situación?

1) ¿Invertir más en las universidades?

Este punto es debatible, dado que un análisis de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) demuestra que el gasto promedio por alumno en educación superior es más alto en México (en % del PIB) que en otros países miembros de la organización. En cambio, los países de la OCDE invierten más en educación preescolar y básica.

Gasto por alumno/PIB per capita (2012)

Lo anterior demuestra que la alta tasa de desempleo de los profesionistas no tiene forzosamente que ver con la falta de gasto para el nivel educativo superior. Este déficit estaría, más bien, en la educación inicial y básica, dado que la evidencia internacional indica que las inversiones en edad temprana pueden tener mayores retornos que las inversiones en educación superior (Heckmann, 2006, La política del Capital Humano). Si se toma en cuenta que el nivel de desempleo incrementa con el nivel de estudios (OCDE, 2015), el panorama es poco alentador en México. Conclusión: aumentar el gasto tal como se hace ahora, no serviría para reducir la tasa de desempleo de los jóvenes en el país.

Entonces, ¿cuál puede ser la causa determinante del desempleo de los profesionistas? Seguramente el problema radica más bien en la falta de pertinencia de los estudios. Sobre todo cuando más de la mitad de los empleadores en México reportan que no encuentran al personal adecuadopara cubrir sus vacantes (54%) (Manpower, 2015). Si los jóvenes egresan y no encuentran empleo, aunque haya ofertas de trabajo, parece claro que no tienen las competencias que requieren las empresas. Además, en los sectores que reclutan, no se ofertan suficientes matrículas en educación técnica para abastecer a la demanda, y quedan muchas vacantes de empleo sin cubrir. Esta falta de trabajadores formados obstaculiza el crecimiento de las industrias tecnológicamente complejas.

2) Invertir mejor, ¿pero cómo?

·Apostar a carreras técnicas en sectores estratégicos. No es una receta mágica. Sin embargo, en países cuyos sistemas educativos han apostado por sectores estratégicos obtienen muy buenos resultados de inserción laboral.

·Fortalecer la orientación vocacional. Orientar los alumnos hacia las profesiones más demandadas en la industria y mejor pagadas. Evidentemente no se puede forzar a los alumnos a escoger una profesión, pero se les puede proporcionar elementos para que tomen decisiones mejor informadas.

·Permitir experiencias de aprendizaje en el lugar de trabajo para jóvenes y profesores. Estar expuesto a una primera experiencia laboral aporta un acercamiento y una comprensión temprana de las necesidades de las empresas, lo cual permite a los estudiantes prepararse mejor para el mercado laboral. Algo que, por ejemplo, sucede con los sistemas de aprendices. Por otro lado, las empresas pueden realizar un pre-reclutamiento y también se consigue implicarlas en la formación de los jóvenes.

·Involucrar a las empresas en la educación técnica. Tal como expliqué en este post anterior, esta estrategia pasa, entre otros puntos, por:

  • Asociarse con asociaciones o cámaras empresariales e identificar empresas líderes
  • Introducir más flexibilidad en los planes de estudio para poder responder rápidamente a las necesidades del sector privado
  • Dar incentivos a las empresas para participar en la formación para el trabajo

A partir de herramientas simples y flexibles, se pueden ofrecer más oportunidades de trabajo para jóvenes con nivel de educación medio o superior.

Fuente:http://blogs.iadb.org/trabajo/2016/06/07/como-crear-mas-oportunidades-de-empleo-juvenil/?utm_source=newsletter&utm_medium=rssfeed&utm_content=title&utm_source=Factor+Trabajo%3A+Bolet%C3%ADn+de+Mercados+Laborales+y+Seguridad+Social+del+BID&utm_campaign=1c5575f3cd-Mailchimp+RSS&utm_medium=email&utm_term=0_c30748bc43-1c5575f3cd-189478437