Archive for Artículos

La investigación de mercados internacionales

Os quiero poner un ejemplo, que me ha parecido muy interesante. Se trata de un caso expuesto en una de las fuentes bibliográficas de las que bebo, “Investigación de Mercados”, de Naresh K. Malhotra. Se trata del camino recorrido por IBM en los mercados globales.

IBM: recorrido por los mercados globales

Todos vosotros conoceréis al gigante IBM, cuyas ventas superaban los 100 mil millones de dólares en 2006. Pues bien, esta megaempresa suele realizar diferentes estudios de mercado en Europa, Sudamérica, Norteamérica y Asia con el objetivo de obtener datos que marquen tendencias sobre los servidores, para lo que toman una muestra de cada seis sitios donde esté en uso un servidor de IBM, y en donde los participantes son los responsables de adquirir servicios de software y hardware.

La información requerida por IBM suele recabar datos sobre el equipo de computación instalados, planes futuros de adquisición de equipo y opinión sobre diferentes vendedores.

Una de las empresas a las que recurre IBM es RONIN Corporation, empresa americana.

Resultados de los estudios

Los resultados de los estudios permiten a IBM valorar su éxito en la penetración de industrias de relevancia, así como el uso real que se da a los equipos de IBM en negocios.

Este estudio de mercado, que es más bien un estudio de seguimiento, identifica para IBM los posibles problemas, como el hecho de que los encuestados afirmen que no planean hacer adquisiciones futuras de equipo de IBM, problemas con el servicio de mantenimiento o con la baja satisfacción del cliente.

En uno de los estudios se identificó un nuevo problema cuando se descubrió la demanda potencial de servidores en la plataforma Linux. ¿Problema u oportunidad? A partir de ahí, para la solución de problemas enfocada en identificar preferencias de productos, IBM introdujo dos nuevos servidores en plataforma LINUX, y una computadora central que opera sólo en esa plataforma y que no requiere de un sistema tradicional.

Las computadoras centrales que operan en una plataforma diferente de Linux tienen un coste aproximado medio de 750.000 $, mientras que las de Linux son casi la mitad. El servidor eServer Z-Series 890 de IBM lanzado en 2004 fue el nuevo representante de la familia eServer y abrió el camino a la empresa para la cobertura de las necesidades de sus clientes en un entorno Linux.

Moraleja

Esto nos lleva a una importante reflexión. Los estudios de mercado están tradicionalmente entendidos para la preparación y lanzamiento de nuevos productos. Sin embargo, los estudios de mercado se pueden usar también para la detección de debilidades y oportunidades.

En definitiva, el análisis de datos constituye una valiosa herramienta para la toma de decisiones, tanto estratégicas como operativas. Y de esta manera hay que tomarlo. La inversión en esta faceta estratégica de los negocios, en muchos casos se toma como un gasto. Si se realizara un adecuado análisis, se llegaría a la conclusión de que el retorno económico, y no hablemos del social corporativo, es neto y es real.

El análisis de datos y los estudios de mercado son en estos momentos, gracias al potencial tecnológico con el que contamos (Big Data) una herramienta imprescindible en el desarrollo de cualquier negocio.

Share on Facebook

El poder del miedo: la historia de la Gripe A

Son muchas ya las voces que apuntan a que el virus AH1N1 cepa 5O4 fue algo más que una variante de virus común de la gripe.

Las explicaciones dadas por las administraciones gubernamentales y las principales organizaciones mundiales como la Organización Mundial de la Salud, comienzan a ser seriamente cuestionadas de forma cada vez más evidente.

Utilización de virus como control social

Diferentes expertos apuntan a que el uso del temor creado con la “pandemia” del virus AH1N1 fue creado con el fin de restringir poco a poco los derechos de los ciudadanos, creando unas pautas de comportamiento cada vez más evidentes en nuestro día a día.

Estas pautas de comportamiento ya se están recogiendo en leyes y normativas. Así, por ejemplo, el 20 de julio de 2009 se publicó en el Boletín Oficinal del Estado (BOE) el Real Decreto 1015/09, gracias al cual el Estado podrá utilizar vacunas y fármacos no autorizados sobre cualquier persona en España sin que los posibles daños puedan ser indemnizados.

Y vamos más allá,  se cita la posibilidad de crear situaciones cercanas a los estados de excepción de forma que en el caso de existir riesgos derivados de los agentes patógenos, se pueda tener un control absoluto sobre los enfermos y su entorno inmediato. Esto supone en sí una bofetada a los derechos individuales de libertad y libre movimiento que ya se están recogiendo en las propias leyes españolas en forma de una posible “ley marcial”.

Lo que se nos oculta

En enero de 2009 la filial norteamericana de la farmacéutica Baxter distribuyó a una serie de laboratorios de Austria, República Checa, Eslovenia y Alemania, material para la preparación de vacunas contra el virus de la gripe estacional, antes de que aparecieran los primeros casos en abril de la AH1N1, que no es la primera variante ni siquiera dentro de las propias cepas AH1N1, ya que entre las primeras se pueden catalogar la gripe de 1918.

Una empresa checa, Biotest, realizó unas pruebas sobre el material enviado por Baxter para la elaboración de dichas vacunas. Tras aplicar las vacunas con ese material a hurones (animal sobre el que se prueban las vacunas de la gripe), resultó que todos los animales murieron, lo cual fue puesto inmediatamente en conocimiento de la empresa matriz anulando así toda la producción de las vacunas, lo cual podría haber supuesto, en caso de no haber detectado el error, la muerte de miles de personas en Europa.

Sin duda las empresas farmacéuticas hicieron el agosto

Lo alarmante es que además, las empresas farmacéuticas fabricantes de las nuevas vacunas antivirales AH1N1 suscribieron acuerdos con estados en los que figura la renuncia de éstos a solicitar indemnizaciones en caso de que las vacunas fallen. ¿Qué pasaría en el caso de que sea obligatoria la vacunación?

Intereses creados

En algunos estados de los EE.UU., como Massachusetts, la vacunación es obligatoria. La negación a esta medida supone una multa de 1000 dólares al día y arresto sin orden judicial previa. Esto supone que se podrían no solo restringir derechos inviduales (como negarse a tomar un medicamento o vacuna) sino que sería incluso peor, ya que se podría cercenar los derechos de reunión, libre circulación, viaje, etc.

Sin duda las empresas farmacéuticas se están frotando las manos. No es raro ver en prácticamente cualquier edificio o estancia la existencia en la entrada de jabones limpiadores de manos, pañuelos, etc., por no hablar de las ventas de mascarillas “cubrebocas” a nivel mundial, elementos que se han fijado como obligatorios en el combate contra este virus.

Es sin duda un negocio que está llenando los bolsillos de unos a costa del miedo infundido a todo un planeta. Los datos sobre facturación y venta de la industria farmacéutica en los últimos dos años han descendido sensiblemente, esto da mucho que pensar.

Hay que fijarse más en los datos

Desde el 15 de septiembre de 2009 hasta las fechas de hoy, han muerto por causa del virus de la gripe AH1N1 un total de 4.000 personas, mientras que la gripe estacional o común mata cada año y solo en Europa entre 20.000 y 220.000 personas.

Por lo tanto, si el virus de la gripe AH1N1 está sustituyendo al virus estacional o común, lo que supone rebajar la tasa de mortalidad unas 30 veces, entonces ¿por qué tanto temor?

Share on Facebook

La estadística en las elecciones gallegas

El día 21 de octubre de 2012 se celebró en Galicia un proceso electoral para la elección de su Parlamento.

En este artículo, queremos dar eco a una noticia surgida a partir de los datos de los resultados ofrecidos por la Xunta de Galicia (aquí y aquí)

Hasta ahora, en todas las elecciones se han contabilizado para las estadísticas del censo electoral tanto a gallegos residentes en la Comunidad como en el extranjero. De hecho, en la nota de prensa del INE con fecha de 3 de septiembre de 2012 (enlace) se recogía de la siguiente manera:

En la página web de la Xunta de Galicia (enlace) los resultados de participación son los siguientes

En el año 2009…

Los datos oficiales de las elecciones en 2009, publicados en el Diario Oficial de Galicia (enlace), son los siguientes:

Según el cálculo tradicional de participación/abstención, la participación se situaría en el 64,43% y la abstención en el 35,57%, tal como refleja la web de la Xunta para el año 2009.

En el año 2012…

Como puede verse en la tabla, el total de votantes, según la web de la Xunta, asciende a 1.467.657, e indica una participación del 63,80%, y la abstención de 832.678 personas, un 36,20%.

Es al revisar los cálculos de participación y abstención surge la sorpresa.

Si dividimos el total de votantes entre el total de elecciones al Parlamento de Galicia, el porcentaje de participación se sitúa en el 54,43%, un 9,4% inferior al ofrecido oficialmente, y el de abstención en el 45,57%.

Esto es por que, esta vez, el cálculo del porcentaje de participación y abstención se ha realizado en base al total de electores residentes en Galicia, sin contar 397.284 electores residentes en el extranjero con municipio de inscripción en Galicia.

Es un cambio metodológico muy importante. Si bien es cierto que en la web de la Xunta de Galicia los datos son provisionales, llama la atención que no se haga mención a este detalle que ofrece una interpretación de los resultados sustancialmente diferente.

Descubre más artículos como este en el blog de Gather Estudios

Share on Facebook

El IVA y la tasa de desempleo

El 11 de julio de 2012, Mariano Rajoy como Presidente del Gobierno del Reino de España ha presentado la propuesta de subida del IVA, de tal forma que el tipo general pasa del 18% al 21% y el reducido del 8% al 10%.

Muchos economistas critican esta decisión, ya que en un país en recesión, con el consumo interno degradado, la balanza comercial deficitaria de forma congénita y la presión sobre la financiación pública, el incremento de impuestos indirectos que gravan el consumo, puede suponer un efecto contradictorio al que se persigue. Si a ello se une el fraude existente en nuestra economía (y que con una subida del 18% al 21% puede acrecentarse) no parece un escenario muy adecuado para tomar esta medida.

¿Qué es el IVA?

El IVA es un impuesto indirecto sobre el consumo, es decir financiado por el consumidor final. Un impuesto indirecto es el impuesto que no es percibido por el fisco directamente del tributario. El IVA es percibido por el vendedor en el momento de toda transacción comercial (transferencia de bienes o prestación de servicios). Los vendedores intermediarios tienen el derecho a reembolsarse el IVA que han pagado a otros vendedores que los preceden en la cadena de comercialización (crédito fiscal), deduciéndolo del monto de IVA cobrado a sus clientes (débito fiscal), debiendo abonar el saldo al fisco. Los consumidores finales tienen la obligación de pagar el IVA sin derecho a reembolso, lo que es controlado por el fisco obligando a la empresa a entregar justificantes de venta al consumidor final e integrar copias de éstas a la contabilidad de la empresa.

Origen del IVA en España

Los impuestos indirectos se originaron en nuestro país en el siglo XIV, cuando el Reino de Castilla trataba de reconquistar los territorios del Reino de Granada Así, en 1342, el rey Alfonso XI comenzó a gravar el comercio con un nuevo impuesto en el reino.

Hablando sobre el actual IVA, como tal, fue implantado por primera vez en Francia, en 1954, y en España fue introducido el 1 de enero de 1986, con la entrada del país en la Comunidad Económica Europea (CEE).

Evolución del IVA en España

La siguiente tabla muestra la evolución del tipo impositivo desde su entrada en vigor:

Año Superreducido Reducido General Elevado Gobierno
1986-1991  – 6% 12% 33% PSOE
1992  – 6% 13%-15% 28% PSOE
1993-1994 3% 6% 15%  – PSOE/PP
1995-2009 4% 7% 16%  – PP/PSOE
2010 4% 7%-8% 16%-18%  – PSOE
2011 4% 8% 18%  – PSOE
2012 4% 10% 21%  – PP

            Fuente: Elaboración propia a partir de datos de la AEAT

Sin embargo, a pesar de la subida del IVA a lo largo de su existencia, la recaudación no ha seguido la misma tendencia.

Si enfrentamos la evolución de la recaudación por IVA con la evolución de la tasa de desempleo se tiene el siguiente gráfico:

Fuente: Elaboración propia a partir de datos de la información tributaria de la Estadística de Impuestos del Instituto Nacional de Estadística


Con los datos disponibles hasta 2007, se observa que ni siquiera en el global del periodo 1994-2007, donde sistemáticamente se reduce la tasa del desempleo tras la crisis de 1992, la recaudación por IVA sobre el total del PIB crece. Es más, a partir del año 2000 se produce un significativo descenso.

Es decir, pese a los incrementos de los tipos impositivos del IVA y las épocas de bonanza en lo relativo al empleo, algo que podría relacionarse directamente con el incremento y dinamismo del consumo interno del país, debido a una mayor renta disponible en las familias y unas mayores tasa de ahorro, la recaudación por IVA sobre el PIB español ha llegado a perder prácticamente la mitad de su aportación (del 6% en 1991 al 3% 2007)

En siguienes artículos, intentaré analizar la relación del IVA con otros componentes macroeconómicos.

 

Share on Facebook

La ética en la Investigación Comercial: el código ESOMAR

Como toda profesión, la Investigación Comercial o Investigación de Mercados ha de efectuarse siguiendo unas buenas prácticas, bien definidas y aceptadas por todos los participantes del sector.

Así, los profesionales de este sector tenemos muy presente que la credibilidad de nuestro trabajo y de nuestro futuro profesional va directamente ligado a la calidad de nuestros resultados. Por eso, nos comprometemos a seguir el código ESOMAR.

Código ESOMAR

Los estudios de mercado exigen muchas veces recoger información de personas, generalmente de forma confidencial. Las empresas que realizamos estos trabajos nos encontramos entre dos grupos de interés, por un lado, nuestros cliente interesados en conocer opiniones, actitudes, valoraciones, intenciones de compra, etc., y por otro lado el público (general o específico) que puede aportar esa información.

El primer código deontológico en materia de estudios de mercado fue publicado en 1948 y revisado en 1967 por la Asociación Europea para Estudios de Opinión y Marketing (ESOMAR)

La Cámara de Comercio Internacional (CCI) y ESOMAR, en 1976, revisaron sus códigos para adaptarlos mejor a la realidad de entonces. De estos trabajos surgió el Código Internacional CCI/ESOMAR de Prácticas Legales en Materia de Investigación de Mercado y Opinión. Existe una publicación del mismo en castellano, editada por la Asociación Española de Estudios de Mercado, Marketing y Opinión (AEDEMO) que se fecha en 1986, cuyas principales características se muestran a continuación.

ESOMAR es una asociación de miembros individuales que se han comprometido a suscribir un código ético, cuyo contenido se describe en este apartado. El código se estructura en los siguientes puntos:

1. Principios de base

Los estudios de mercado deben hacerse apoyándose en la confianza de que se realizan con honestidad y objetividad. Al público se le debe informar sobre los objetivos de la investigación, garantizar su anonimato y no utilizar la información que proporcione para fines distintos de los objetivos de la investigación.

Los estudios deben ser desarrollados de acuerdo con los principios de competencia legal, y quienes los desarrollen deben estar dispuestos a permitir y demostrar la calidad de los resultados y la validez de las conclusiones.

2. Definiciones

El Código comienza con unas definiciones de conceptos básicos que acotan conceptos que en él se recogen, relativos a las personas que pueden intervenir en un estudio y otras actividades fundamentales para su dearrollo. Así, el Código define:

– El término estudios de mercado como la “recogida sistemática, registro, tratamiento, análisis y presentación objetiva de los datos referentes al comportamiento, las necesidades, actitudes, opiniones, motivaciones, etc., de individuos, organizaciones, en el ambiente de su vida cotidiana, económica, social y política“. El término estudios de mercado incluye también los relativos a estudios de opinión, estudios de mercado industriales y estudios documentales.

– El término técnico es equivalente al de empresa de estudios de mercado utilizado coloquialmente. El Código lo define como “toda persona física, empresa, grupo, organismo público o privado, servicio u departamento que forma parte de estos organismos, etc., el cual efectua, directa o indirectamente, un estudio de mercado, o interviene a título de consultor o facilita sus servicios para la realización del estudio“.

También se consideran técnicos todos aquellos que desarrollen investigaciones en cálidad de subcontratistas, como, por ejemplo, una empresa que haga el trabajo de campo para otra a la que se le haya encargado un estudio de mercado.

– El término cliente designa a “toda persona física, empresa, grupo, organismo público o privado, servicio o departamento que pide, autoriza o acepta suscribir un estudio de mercado, en parte, o en su totalidad, o propone hacerlo“.

– Por persona entrevistada se entiende “toda persona física o moral, grupo u organismo, aquien el técnico se dirige a fin de recoger las informaciones necesarias para un estudio, cualquiera que sea el tipo de informaciones recogidas y el método o la técnica utilizada para obtenerlas“.

– El término entrevistasignifica toda forma de contacto directo o indirecto con las personas entrevistadas, que tienen por objeto recoger los datos de las informaciones susceptibles de ser utilizadas en su totalidad o en parte para un estudio de mercado determinado“.

– Por documento debe netenderse “todas las instrucciones, proposiciones, cuestionarios, listas, fichas, registros, cintas magnetofónicas, films, tablas de comprobación, tablas de ordenador, cintas magnéticas de informática u otros sistemas de conservación de los datos, fórmulas, gráficos, raports, etc., ya sea de cualquier forma, referente a un estudio de mercado que trate del conjunto o de una parte de éste“.

3. Normas

Existen una serie de normas (que no os voy a detallar aquí, sí en un enlace al final del post) que rigen las formas de actuar. Estos son sus principales epígrafes:

3.1. Derechos de las personas entrevistadas.

3.2. Relaciones con el público en general y la comunidad profesional

3.3. Responsabilidades mutuas de clientes y técnicos

3.4. Presentación de informes

3.5. Modalidades de aplicación del Código

3.6. La contratación de los estudios de mercado en la práctica. Las recomendaciones ESOMAR.

3.7. Normas ESOMAR para la contratación de estudios de mercado internacionales

Podéis acceder al documento completo del Código ESOMAR aquí.

En definitiva, para todos aquellos “malpensados” que dudan siempre de las encuestas, de los estudios de opinión y de mercados, decir que los profesionales de este sector nos regimos, como otros, por normas implícitas y explícitas, que nos obligan a ser escrupulosos con lo que hacemos, porque en el fondo, tratamos con informaciones muy valiosas aportadas por lo más importante que hay en cualquier intercambio de experiencias, las personas.

 

 

 

Share on Facebook

¿Qué es la EPA?

Todos hemos oído hablar de la famosa EPA, Encuesta de Población Activa que elabora el Instituto Nacional de Estadística (INE). ¿Pero sabemos para qué sirve realmente?

Objetivo

El objetivo principal de la EPA es obtener datos de la fuerza de trabajo y de sus diversas categorías (ocupados y parados), así como de la población ajena al mercado laboral (inactivos)

De esta forma, se tienen en cuenta variables de diversa índole, como la población según el sexo, la edad, el estado civil, la nacionalidad, los estudios alcanzados, la relación con la actividad desempeñada, etc.

Además, los activos se clasifican según la rama de actividad en la que trabajan, ocupación, sector económico, situación profesional, etc. Es decir, una completa desagregación de variables que nos permiten valorar y medir en su justa medida la situación y la evolución de los activos e inactivos de nuestro mercado laboral.

Metodología

Esta encuesta se lleva realizando desde 1964, por lo que es una de las que tiene mayor solera dentro del INE. Una referencia a tener en cuenta.

También sabemos que sale a los medios de vez en cuando, ¿por qué? Pues porque su periodicidad es trimestral, de ahí que exista otro factor curioso, que no coincida con los datos mensuales que se aportan desde otras fuentes de información estadística como puede ser el Ministerio de Trabajo o las propias comunidades autónomas, a lo que hay que unir lo más importante, que siguen metodologías diferentes, ya que la EPA es una encuesta y los datos registrados en Trabajo son censales.

La EPA se aplica a una gran muestra. El INE cuenta con 65.000 familias cada trimestre, es decir, unas 200.000 personas.

El periodo de referencia de la información es la semana anterior a la entrevista y los resultados de la EPA se obtienen un mes y medio después de finalizar el trabajo de campo.

Revisión

En marzo de 2005 el INE revisó todas las series de la EPA 1996-2004 para adecuar sus resultados al incremento de la población residente en España, que estuvo muy relacionada con el gran aumento de población inmigrante.

También se han tenido en cuenta la nueva normativa europea para normalizar los procesos según el procedimiento de la oficina estadística europea EUROSTAT y la introducción de mejoras en la forma de recoger la información.

Expectación

Sin duda, la EPA, junto con otras encuestas a nivel estatal como los barómetros de opinión del CIS, suponen un buen pulso a la economía española, y en este caso, a nuestro maltrecho mercado laboral.

Los datos de la EPA son consistentes y fiables, y cuentan con una serie temporal robusta, por lo que los análisis a partir de su esta encuesta son aconsejables. Su comparabilidad con otras series de organismos internacionales como OCDE, EUROSTAT, OIT son más que interesantes.

Para mayor facilidad de los ciudadanos, el INE suele publicar una nota de prensa con los principales resultados de la EPA. Sin embargo, es aconsejable ir a los microdatos y bucear entre la información recogida. ¡Yo por lo menos lo hago!

Aquí os dejo la última nota de prensa del primer trimestre del 2012 de la EPA.

Share on Facebook

Análisis de la Covarianza – ¿Para qué? ¿Cuándo utilizarlo?

ANOVA y ANCOVA

Con las técnicas ANOVA o de Análisis de la Varianza se resuelven un tipo de problemas, en cierto modo especiales, como son verificar hipótesis sobre la igualdad del comportamiento de los diferentes niveles de un factor, o contrastar la hipótesis de que varias muestras proceden de una misma población.

Si nos centramos en el problema desde el primer punto de vista, se puede contemplarlo también como el análisis del comportamiento de una variable X cuando se le somete a las distintas dosis de un factor. El acto de incluir más factores se debe a dos premisas:

1. Analizar la acción de varios factores

2. Disminuir la influencia del error al diferenciar de éste las fuentes de variación conocidas previamente.

Por explicarlo de forma general, el Análisis de la Covarianza o ANCOVA puede considerarse como un perfeccionamiento de los análisis ANOVA y reune las técnicas del ANOVA y la regresión clásica. El análisis de la Regresión tiene, en su sentido más utilizado, una variable que se hace depender linealmente de otra u otras, no aleatorias, y de un elemento aleatorio llamado error:

Y = X1 + X2 + … Xn + Error

Tiene las mismas características que el ANOVA, pero la diferencia radica en que el objeto de estudio y análisis entre ambos es el factor.

Si atendemos a las enseñanzas de Scheffe, en el ANOVA el factor, ya sea cualitativo o cuantitativo, se trata cualitativamente, mientras que en el Análisis de Regresión, todos los factores son cuantitativos y se tratan de forma explícita de forma cuantitativa. En el ANCOVA, al tratarse de una mezcla de ambos análisis, unos factores se tratan cualitativamente y otros cuantitativamente.

Normalmente, el modelo ANCOVA en su concepción más simple se suele escribir de la siguiente forma:

Y = Beta1 + Beta2X + Error

Estimaciones

La estimación de los parámetros del modelo (Beta1 y Beta2) se suele realizar a través del método de mínimos cuadrados.

Para que el modelo quede perfectamente determinado es necesario estimar la varianza de los errores (sigma2). Por lo tanto, las estimaciones (Beta1, Beta2 y Sigma2) gozan entre otras propiedades de las de insesgadez y eficiencia.

Contraste de hipótesis

De las múltiples hipótesis que normalmente se contrastan resalta la siguiente hipótesis:

Ho = La pendiente de la recta (Beta2) es significativamente distinta de cero.

Es decir, la variable X influye sobre la variable Y. En caso contrario el resultado indica que se puede prescindir de la variable X como medio para explicar la variabilidad de la variable Y. Para llevar a cabo este contraste se lleva a cabo un Análisis de la Varianza de la Regresión, a través del sistema clásico de comparaciones SCR/SCE siguiendo la distribución F(2;n-2;alfa).

Como punto importante hay que recordar que el contraste ha de basarse en la valoración del R cuadrado, que valida el ajuste y su bondad. Puede darse que exista una influencia de la variable X sobre la Y (Beta2!=0), pero hay que medir en qué cuantía dicha influencia se manifiesta. Esto se mide a través del coeficiente de determinación R-cuadrado, que varía entre 0 y 1. Cuando no existe asociación lineal entre ambas variables R-cuadrado=0 y cuando la asociación es perfecta $-cuadrado=1.

Ejemplos de utilización del ANCOVA

Imaginemos que queremos analizar el efecto que sobre el consumo de un producto, en este ejemplo de libros, tiene el nivel cultural de las personas.

En primer lugar, estableceríamos los niveles del factor A1, A2, …, At, siendo Yij el gasto en libros de la persona “ij”. El modelo de análisis sería el siguiente:

Yij = mu + Ai + eij

Imaginemos ahora que en considerásemos de partida que el nivel de ingresos de los compradores (X) pudiera también influir en la decisión de compra. Por su parte, matemáticamente podría explicarse así:

Yij = Beta1 + Beta2*Xij + eij

Si realizamos el análisis del comportamiento de los niveles culturales y de los niveles de ingresos independientemente unos de otros, tendríamos como resultado que, por muy esclarecedores que fueran, solo nos proporcionarían una visión parcial del problema en cuestión, en este caso, el análisis de una de las posibles causas de la variabilidad del consumo de libros.

Para conseguir este nuevo propósito, podríamos fundir ambos modelos en uno, de la siguiente manera:

Yij = mu + Ai +  Beta*Xij + eij

De esta forma, los resultados que se obtienen respecto de los niveles culturales vendrán matizados por la influencia del nivel de ingresos, y viceversa.

Hay que destacar que en este modelo la variable Xij no es aleatoria, por lo que recibe el nombre de “variable concomitante o COVARIABLE”. La componente “eij” es aleatoria y, por supuesto, se han de contrastar sobre ella las hipótesis de normalidad, homocedasticidad, independencia y esperanza matemática nula (N(0, sigma)).

Espero que esta sencilla puesta en escena del análisis de Covarianza haya resultado interesante.

 

Un saludo!

 

Share on Facebook

El papel de la Estadística en el Marketing moderno

Actualmente, las técnicas de Marketing invaden y saturan la vida cotidiana. Sin embargo, pocos conocen que, tras todo esto, la Estadística juega un papel importantísimo.

Según la American Marketing Asociation (AMA), el Marketing: “es una función de la organización y un conjunto de procesos para crear, comunicar y entregar valor a los clientes, y para manejar las relaciones con estos últimos, de manera que beneficien a toda la organización…”

Sin embargo, esta tradicional descripción académica de la asociación americana se ha tenido que adaptar a las nuevos cambios que la sociedad ha conocido en estas últimas décadas. Philip Kotler, uno de los grandes nombres del Marketing moderno, describe el Marketing de la siguiente forma: “El marketing se ocupa de identificar y satisfacer las necesidades humanas y sociales. Una de las definiciones más cortas de marketing es ”.

Para nuestra sociedad, la conocida como “Sociedad del Consumo“, el Marketing ya no constituye únicamente una simple función de la organización; sino que se ha convertido en una función imprescindible en muchos negocios y actividades empresariales, formando parte de la estrategia general de partida de las empresas.

La tecnología lo cambió casi todo

Debido a los enormes avances tecnológicos experimentados desde finales del siglo XX hasta el presente, los especialistas en marketing han movido ficha para adaptarse a los nuevos comportamientos y pautas sociales de forma que su actividad no se quedase desfasada con respecto a los inciertos mercados sobre los que trabajan.

Uno de los principales aspectos del Marketing lo constituye la recogida y el tratamiento de la información. Hace apenas 30 años, el tratamiento de millares de datos procedentes de clientes de diversa índole no solo se convertía en un claro objeto de deseo sino que económicamente era poco más que inviable.

Gracias a los avances tecnológicos, y en especial, gracias al desarrollo de la Informática, este problema se ha superado con creces, ya que hoy en día, los sistemas computacionales permiten un tratamiento preciso y, sobre todo rápido, de ingentes cantidades de datos.

La Estadística como base científica

Consecuentemente, la Estadística, basada tradicionalmente en el tratamiento de datos, ha adoptado con sumo gusto la utilización de software cada vez más potente. El cálculo que antes costaba varios días o incluso semanas usando una antigua máquinas de hojas perforadas, hoy en día se resuelve en cuestión de segundos o milisegundos, gracias a los potentes microprocesadores.

Además, el software estadístico ha evolucionado de forma brillante tanto en el ámbito de las licencias privadas (SPSS; SAS, STATISTICA, etcétera) como en el ámbito del desarrollo abierto (R-Cran). La integración de paquetes y motores estadísticos en aplicaciones informáticas constituye un avance sensacional en el tratamiento y exposición de la información.

Gracias al avance tecnológico, la “Minería de Datos” o Data Mining, se ha constituido hoy en día como una herramienta empleada en muchas multinacionales y grandes empresas, las cuales, explotan sus enormes bases de datos de forma estadística para averiguar hasta el más mínimo detalle que les ayude a optimizar su Marketing Mix, es decir, la gestión de su producto, sus rangos de precios, sus canales de distribución y su promoción y/o publicidad.

¿Qué aporta la Estadística al marketing?

La Estadística aporta una base científica y una metodología que justifica, entre otras cosas, la aprobación final de presupuestos para la realización de investigaciones comerciales, que en el caso de las grandes multinacionales, suelen ser de gran cuantía.

Es más, la Estadística permite optimizar las estrategias de Marketing a seguir, reduciendo el riesgo y aportando una medición real del retorno de inversión (ROI). Esto es importante, puesto que además de saber cuánto ha de invertir una empresa en sus acciones de marketing, también es necesario medir qué rentabilidad se ha obtenido con dichas acciones.

Los pequeños detalles son los que llevan al éxito

Lo cierto es que todavía, muchas empresas consideran la función de Marketing como un gasto y no como una inversión, lo cual constituye un enorme error. En épocas de crisis generalizada como la que vivimos, es todavía más tentador suprimir y dilapidar las funciones de Marketing de la empresa hasta que vengan tiempos mejores.

Lo cierto es que aquella vieja frase de “la información es poder” es cada más cierta. La diferenciación de los productos de una empresa con respecto a sus competidores ha de apoyarse en un buen sistema de información relevante y actualizado.

En Estadística, la información no sólo aporta medias y varianzas, como normalmente se suele aducir, en cierta manera de forma despectiva. Los datos pueden seguir patrones subyacentes que son definitivos para la explicación de fenómenos, y en el caso que nos ocupa, de patrones de comportamiento en el análisis de los componentes del Marketing Mix.

En muchas ocasiones, la aplicación de un análisis estadístico multivariante desentraña una serie de comportamientos que a través del ojo del especialista en marketing de la empresa a simple vista no se aprecian. En ese momento un buen analista estadístico entra a jugar con sus propias cartas.

El azar ya no tiene hueco en la actual mercadotecnia

Pese a las reticencias tradicionales que ha habido entorno al uso de la Estadística en diversos campos profesionales, poco a poco va teniendo cabida y aplicación en un sinfín de proyectos relacionados con la Sanidad, Demografía, Seguridad Social, Biología, Medicina, Investigación Social, etc.

En lo concerniente a la Investigación de Mercados, las técnicas cuantitativas utilizadas con metodologías estadísticas avanzadas garantizan un análisis objetivo, científico y mesurable, que se trasladan directamente en la obtención de mejores márgenes productivos para las empresas.

Y es que, la suerte cada vez juega un papel menos importante en la consecución de los objetivos comerciales. El escritor americano de ciencia ficción Robert Heinlein dijo una vez: “No existe la suerte. Sólo hay preparación adecuada o inadecuada para hacer frente a una estadística“. En la aplicación de las técnicas de mercadotecnia actuales no se deja lugar al azar, la Estadística ha logrado ocuparse en gran medida de él y ayuda a que la suerte juegue a favor de las acciones comerciales puestas en marcha.

Share on Facebook

Los orígenes de la Estadística V – Designios, Providencia y desmentidos

En los últimos artículos hemos podido leer a cerca de los orígenes de la Estadística, en un contexto de avance de las ciencias matemáticas, físicas y sociales. Los expertos sitúan el final del surgimiento de la probabilidad con la publicación del Ars conjectandi.

John Arbuthnot, o como intentar meter la Providencia a calzador

Hoy os escribiré sobre John Arbuthnot, actualmente considerado con um escritor satírico, si bien, era un reputado médico de la Royal Society. Pues bien, Arbuthnot era de la opinión de que las posibilidades de que una mujer de veinte años conserve su virginidad o que un joven haya sido infectado de gonorrea se justificaban en base al análisis de probabilidad a posteriori.

Pero, me quiero centrar en un debate interesante que establecieron a cerca de la posibilidad de de que el recién nacido sea varón. Nuestro citado del día, publicó un argumento en favor de la Divina Providencia, tomado de la regularidad constante observada en los nacimientos de ambos sexos. Este argumento, empleaba dos tipos de razonamiento estadístico, de los cuáles uno de ellos es válido y en el que se postula por la “Intervención Divina” en la acción de las leyes estadísticas.

¿Interviene la Providencia en la proporción de mujeres/hombres?

Si nos vamos a la esencia de este argumento, Arbuthnot nos explica que debemos examinar tres inferencias, solo dos de las cuales serían consideradas actualmente estadísticas y cuya tercera inferencia trata de la propia naturaleza de la estabilidad estadística. De esta forma, en una población de n monedas cuyas caras están marcadas por M y F, los coeficientes binomiales en la expansión (M+F) elevado a n, dan las probabilidades de los resultados de n tiradas.

Así, el coeficiente, dividido por 2 a la n, es la probabilidad de obtener exactamente kM y (n-k)F. Al tender n a infinito, aumentan los coeficientes de cualquier término y se hacen más pequeños, por lo que, si suponemos que M es masculino y F femenino, habrá una pqeueña parte de todas las alternativas posibles, de que ocurriese, en cualquier momento dado, que un número igual de hombres y mujeres hubiesen nacido.

Además, abunda en la idea de que es muy improbables que bajo los designios del azar que los resultados nunca lleguen a los extremos, es decir, que preponderen de forma masiva los F sobre los M o viceversa. Arbuthnot afirmaba que “la regularidad constante en los nacimientos de ambos sexos no puede ser cuestión del azar“. No podía estar más equivocado.

Si bien, es muy improbable que los resultados nunca lleguen a los extremos, a diferencia de Bernoulli, Arbuthnot fue incapaz de cuantificar cuán “muy improbable” era. Bernoulli, lo hizo y demostró que la regularidad permanente observada es, exactamente, lo que debiera esperarse si la probabilidad del nacimiento de un varón fuese de 18/35. La probabilidad de obtener un resultado extremo decrece a medida que crece “n”. Es sorprendente lo que afirmaba Arbuthnot a tal efecto:

Para juzgar la sabiduría del artificio, debemos observar que los accidentes externos a los que están sometidos los hombres (quienes deben buscar el alimento en situaciones peligrosas) hacen un gran estrago entre ellos y este lote excede el del otro sexo, ocasionado por las enfermedades incidentes sobre él, como la experiencia nos muestra. Para reparar esa pérdida, la naturaleza providente, por disposición de su sabio creador, genera más hombres que mujeres y ello en una proporción casi constante.”

Supongo que a estas alturas, vuestras mentes preclaras y renacentistas habrán chocado con esta idea de forma radical y una leve sonrisa os habrá iluminado la cara. Este pensamiento basado en la fe religiosa y la providencia queda desmontado con la empírica y el razonamiento científico (como no podía ser de otra forma).

Imaginemos que la posibilidad del nacimiento de un varón fuese exactamente de 1/2, entonces, ¿cuál sería la probabilidad de que, en cualquier año dado, naciesen más varones que mujeres? Pues casi exactamente 1/2 (no penséis en el chiste de que sí o que no).

Los registros de mortalidad londinense de la época registraron 82 años sucesivos con nacimientos de varones superior al de nacimientos femininos. La probabilidad de este suceso, bajo la hipótesis de posibilidades iguales, es de 1/2 a la 82, es decir, las posibilidades son de 1 entre 483.600.000.000.000.000.000.000. Y si considerasemos que el excedente de varones se encontrara dentro de límites bastantes estrechos y que además, supiéramos que  ocurrió durante años y años, y no solo en Londres, sino en todo el mundo, la probabilidad se acerca a una cantidad infinitesimalmente pequeña. Por lo tanto, la hipótesis de posibilidades iguales debe ser rechazada.

Esta fue denominada la primera prueba de significación de una hipótesis estadística que haya sido publicada, y el inicio de un sinfín de publicaciones relacionadas con la demostración empírica de leyes de todo tipo aplicadas directamente a los problemas y sucesos de la época.

Share on Facebook