Author Archives: Jorge Andrade

MaxDiff (ESCALAMIENTO DE DIFERENCIAS MAXIMAS) II de II

Me contó un amigo que un día estaba en la iglesia y que a unos cuántos metros de él había un hombre que pedía fervientemente a Dios 100 mil pesos; cuando vio llegar a otro hombre, el cual se hincó justo al lado del primero e inmediatamente comenzó a rezarle a Dios para pedirle mil pesos, no había hecho su plegaria ni dos veces cuando el que pedía 100 mil pesos sacó de su cartera los mil pesos, se los dio al otro devoto creyente y le dijo: ¡Toma y lárgate de aquí que me lo distraes! Dicen que Dios no hace diferencias entre sus hijos pero los humanos sí y eso es lo que intentamos medir con la técnica MaxDiff.

Intentamos medir las diferencias en la percepción de los consumidores sobre marcas y/o atributos; esto usualmente se hace mediante escalas y MaxDiff es una escala; más elaborada estadísticamente que la gran mayoría pero con ventajas psicométricas que la hacen la preferida de muchos investigadores y la inútil para otros tantos. Es algo parecido a la “Gran Ola de la Corriente Tortuga” o sea el Kame Hame Ha de Gokú que es bueno pero no infalible ¿Quieres convertirte en Super Sayayin? Sigue leyendo.

Esquemáticamente, un análisis maxdiff se hace así: primero, debes decidir qué medir, en cuyo caso, comúnmente, hay de dos sopas, a). evaluar marcas o conceptos y b). evaluar características o atributos de la marca o el concepto. Por ejemplo, en una pequeña encuesta que acabamos de hacer les preguntamos a los entrevistados “¿Para usted, cuál de estos bancos es el mejor y cuál es el peor?” (véase la figura de abajo), lo que pretendíamos medir en dicho caso son las marcas de bancos.

mejor banco maxdiff

Si hubiéramos preguntado “¿Cuál de estos atributos es el más importante en una tarjeta de crédito y cuál es el menos importante?” (véase la figura de abajo), entonces hubiésemos estado más interesados en medir la importancia de los atributos de las tarjetas de crédito en lugar de las marcas de tarjetas de crédito.

atributos maxdiff

El segundo paso es crear los estímulos o tarjetas donde vienen los marcas o atributos que deseas evaluar; eso es lo que se llama diseño experimental y aunque parece complicado no lo es ya que sólo se trata de que combines bien las marcas o atributos de forma tal que sea pareja la cosa, como decía mi amá: “o todos coludos o todos rabones”. Para hacerlo guíate de este post (clic aquí).

El tercer paso es analizar los datos de la encuesta, hay dos formas de hacerlo:

a). Contando las veces que cada atributo o marca fue mencionada como “el mejor”, restarle las veces que fue mencionado como “el peor” y dividir el resultado entre el número de veces que fue evaluado el atributo o marca; en otras palabras, sacar un promedio. Por ejemplo, si el atributo A fue seleccionado como “el mejor” 2 veces y 1 vez como “el peor” en 6 ocasiones que fue evaluado, entonces su puntaje es (2-1)/6 = .16. El principal problema con este enfoque es que no pela para nada tu diseño experimental; es decir, si la marca A se junto con la marca D, marca E y G no importa, lo que importa es que haya una marca ganadora y una perdedora así que las interacciones entre esas marcas no cuentan; Sawtooth dice que este tipo de análisis resulta útil es ciertos casos dándote una buena idea de por donde anda el resultado o sea te puede resolver la vida si es que no eres muy exigente. Si quieres más detalles sobre como hacer el análisis consulta este paper de Sawtooth o esta página .

b). Utilizando software estadístico para modelos de selección discreta. En la siguiente tabla están las principales opciones de software; he puesto los costos, capacidad y el grado de facilidad para aprender cada programa.

comparacion softaware maxdiff

Bien, Sawtooth es el jefe, casi todo mundo lo usa, tiene toneladas de información y es fácil de aprender; Latent Gold Choice es lo que llaman los gringos “state of the art” o sea el último grito de la moda debido a los modelos refinados que utiliza, su interface es muy similar a la de SPSS con la cual mucha gente está familiarizada y es más o menos sencillo de aprender aunque no te ayuda a crear los estímulos de tu estudio lo cual puede ser un problema pues también se requieren cuando deseas hacer un estudio de conjoint; SAS es el peso pesado de todos ellos pero al parecer es caro, el servicio es malo (si no me crees intenta que te den un demo) aunque te resuelve la vida al 100% en todo lo que alguna vez hayas deseado hacer en investigación de mercados; Q es muy parecido a Latent Gold, se acopla muy bien al formato de SPSS y es bastante amigable, desafortunadamente falta información y tampoco crea los estímulos; puedes solicitar un demo sin los problemas a los que te enfrentarías con SAS; R es difícil para mucha gente pero tiene todo lo que se puede pedir para hacer análisis y en muchos casos es más sencillo que SAS; por ejemplo, para analizar maxdiff en R utilizando un simple modelo logit standard la cosa es sencilla.

¿Mi recomendación? Empieza a aprender R pero si tienes las posibilidad de comprar un software que te resuelva la vida al 100% pues tienes mi bendición.

Por favor animate a comentar que con eso ayudas a que este blog crezca.

BIPLOT

Estaba René Descartes tendido sobre su cama cuando observó que una mosca volaba en el techo de su habitación y entonces se le ocurrió que se podrían expresar las relaciones geométricas mediante una gráfica de ejes coordenados, sí, me refiero a los ejes cartesianos “x” y “y”, inmediatamente se levantó, tomó papel y pluma y dibujó dichos ejes coordenados y chance que hasta la posición de la mosca. Bueno, tal vez exagero pero así nació el primer mapa perceptual. Aunque la versión oficial dice que fue el inicio de la geometría analítica y no de los mapas perceptuales. Sin embargo, para nosotros los mercadólogos fue el primer mapa perceptual, ciertamente no de marcas ni de algo que tenga que ver con la mercadotecnia pero sólo es cuestión de sustituir a la mosca por aquellos objetos o marcas que nos interesan conocer su posicionamiento y ¡Voila!

El mapa de Descartes era oblicuo y tenía un solo cuadrante no como los mapas de hoy los cuales son de cuatro cuadrantes, rectangulares, triangulares, cubos, sin coordenadas, con más de dos coordenadas, circulares, entre muchas otras especies alienígenas tipo “crop circles”. La especie de la que vamos a hablar tiene cuatro cuadrantes y es todo un clásico en investigación de mercados. Quizá, por ser tan clásico mucha gente no se ha percatado de que ya cambio. En efecto, se llama biplot y la diferencia con el biplot tradicional es que ahora viene calibrado ¿Quieres saber a qué nos referimos con calibrado? Sigue leyendo.

matriz precio calidad de pizzas

Te apuesto 2 a 1 que cuando iniciaste en este negocio el primer mapa que hiciste fue un simple cruce de 2 variables (tus ejes cartesianos) y la evaluación de las marcas sobre esos atributos, algo muy parecido a lo que se hace cuando se gráfica la calidad vs. el precio de varias marcas: la calidad se gráfica sobre el eje de las x’s (horizontal) y el precio sobre el eje de las y’s (vertical) y esto es así porque convencionalmente la “x” representa la variable independiente y “y” la dependiente. En otras palabras, entre más aumentas la calidad más sube el precio o valor de tu marca, es decir, aumenta “x” y sube “y” o debería ¿verdad? Sin duda, esa es una de las formas más fáciles y prácticas de representar una relación además de que resulta entendible para todo mundo. En la ilustración de la izquierda se puede observar cuál es la marca de pizza con la mejor relación precio-calidad ¡Pan comido! ¿No es así? La bronca, sin embargo, es cuando tienes necesidad de representar la relación entre más de dos variables. Pongamos, por ejemplo, el estudio que hizo la Revista del Consumidor sobre la calidad de marcas de Pizza en el cual evaluó varías características sobre estas marcas, en casos como esos la solución es usar la técnica de descomposición de datos llamada biplot ¡No te asustes! Suena complicado pero es fácil, ya lo verás.

Los mercadólogos, al menos en México, solemos usar el programa Brandmap para elaborar nuestros mapas perceptuales, es un programa sencillo que trabaja desde Excel y básicamente se usa para correr análisis de correspondencias pero puede elaborar otros mapas como el biplot; quizá lo único indispensable que debes saber para utilizar este software es que el análisis de correspondencias se utiliza cuando tienes una tabla de porcentajes o frecuencias y el biplot cuando tienes una de promedios. En términos generales, un biplot te ayuda a representar gráficamente los datos de tu tabla con el beneficio de que puedes conocer las relaciones entre variables y marcas. Cosa que es muy difícil percibir con sólo ver la tabla. En la imagen de abajo puedes ver una tabla con los promedios obtenidos por cada marca (sin identificar) en una serie de atributos (también sin identificar para proteger al inocente).

tabla atributos de biplot  Mapa resultante de Brandmap.

biplot de brandmap

Cualquier mercadólogo que ha utilizado este tipo de mapas sabe lo complicado que es explicarle al cliente que el puntaje de una marca sobre un atributo se mide trazando una línea perpendicular de la marca al atributo, no es fácil que lo entiendan; asimismo, si al cliente se le ocurre preguntar qué es varianza explicada (el ángulo recto en la parte inferior izquierda de la ilustración anterior que dice 27.5% y 34.1%) la cosa se tensa más y por si todo esto fuera poco, si el mercadólogo se avienta a comentar que el grado de asociación entre los atributos está dado por el ángulo entre sus vectores: a mayor ángulo entre ellos es menor su asociación y a la inversa, a menor ángulo es mayor su relación, pos el cliente voltea a verle como diciéndole “No seas ma…”. Todo un problema ¿verdad? Tal vez por eso no se utilizan muchos mapas de este tipo y en muchos casos se prefiere seguir presentando únicamente la tabla con los promedios de las marcas. Es una práctica horrible pero así es.

La tabla de abajo contiene los datos de las variables de calidad que midió la Revista del Consumidor de algunas marcas populares de Pizza. Puedes presentar los datos así como vienen en la tabla o puedes optar por correr un biplot como el de la ilustración al principio de este post. Si observas y comparas con atención el biplot del principio con el que te da Brandmap (independientemente del tipo de datos en cada uno de ellos) vas a notar que en el primero los vectores (atributos o variables) corren de lado a lado de la gráfica no así los del segundo; además podrás notar que en el primer caso los ejes vienen graduados, es decir, traen la escala original sobre las cuales se evalúo a cada marca, eso no lo tiene el segundo mapa; bien, pues a eso se le llama ejes calibrados ¿Para qué sirven? Primero, para que puedas explicarle mejor al cliente que calificación tiene cada marca sin meterte en broncas “perpendiculares”; segundo, para que por fin te puedan entender lo que es varianza y tercero, olvidarte del ángulo ya que las líneas (variables o atributos) se acercan o juntan naturalmente haciendo visible la relación que hay entre ellas.

datos de pizzas del consumidor

¿Hasta aquí me vas siguiendo? Si sí, entonces, ya aprendiste la lección que dice: el biplot es una representación gráfica de datos multivariables de una matriz (tabla de datos), en la que las muestras (marcas) son representadas como puntos y las variables como ejes calibrados en un espacio de 2 o 3 dimensiones. Esto nos remite, necesariamente, a aclarar una confusión sobre el término biplot el cual NO se refiere a que los datos se puedan correr en sólo dos dimensiones (“x” y “y”) pues, es obvio que el mapa tiene varias dimensiones, estrictamente hablando cada variable representa una dimensión. El concepto de biplot se utiliza para dar a entender que tanto las columnas (variables) como los renglones (marcas o muestra) se pueden mostrar en un mismo mapa ¿Cómo se logra esto? Recuerdas que más arriba hablamos de que el biplot es una técnica de descomposición ¿si? Bueno, lo que se descompone es la tabla original de datos (matriz de datos original) en el producto de 2 matrices que nos dan la posición de los vectores y las marcas, eso se logra mediante técnicas estadísticas, una de las cuáles es la popular regresión lineal múltiple. ¿Quieres saber más? Lee este libro Biplots in Practice de Michael Greenacre ¿sólo quieres pasar un buen rato? Ve este vídeo.

La interpretación del resultado de un biplot es muy intuitiva. Fíjate en la ilustración del principio y observa a Pizza Hut, las líneas “perpendiculares” caen en el puntaje “estimado” que obtuvo esta marca en cada una de las variables; Por ejemplo, en cuanto a precio Pizza Hut tiene un precio arriba de los $12 pesos por rebanada de pizza (esto es requetefácil verlo con los ejes calibrados) mucho más barata que Benedetti’s que tiene un precio superior a los $20 pesos; en cuanto a Kilocalorías está en 210 aproximadamente, mucho menos kilocalorías que cualquier otra marca a excepción de Domino’s Pizza; asimismo, puedes notar que el sodio y las proteínas van de la mano, si sube la sal también lo hacen las proteínas, y algo muy parecido sucede con los carbohidratos; en español plano, mucha sal, muchas proteínas y carbohidratos en una sola rebanada de Pizza Hut. Así de simple ¿verdad? Ahora, recuerda que hablamos de una estimación y no de los valores de la tabla original que presentó la Revista del Consumidor ¿Por qué no es posible representar los datos idénticamente como en la tabla? Básicamente, porque lo que hacemos al emplear estadística es construir modelos que expliquen los datos de forma resumida o simplificada con el fin de describir los fenómenos o hacer predicciones así que necesariamente dichos modelos deben contener algún grado de error, a ese grado de error le llamamos varianza y para saber que tan bueno es el modelo nos fijamos en la varianza que explica ¿Complicado? Déjame ponerlo de esta manera: si le encargas a un pintor profesional que haga un retrato de alguna persona, no importa que tan bueno sea el pintor, jamás podrá capturar la imagen exacta del rostro de esa persona ¿Estás de acuerdo? Bien, ahora dime ¿cómo puedes saber que tan buena es la imagen que pinto el artista?…¡Fácil!, viendo a la persona del retrato y comparándola con la pintura que hizo el pintor. En estadística sucede lo mismo, la imagen del mapa biplot no puede capturar al 100% los datos que se observan en la tabla pero para saber que tan bien lo hizo comparamos los datos originales de la tabla vs. los datos estimados. A eso, estimado lector, se le llama varianza explicada.

En el siguiente vídeo puedes aprender a correr un biplot utilizando el programa estadístico R, en el mismo hacemos referencia a las cuestiones básicas; sin embargo, te ánimo a que estudies más en profundidad este paquete ya que trae cosas muy buenas para hacerlo puedes bajar el tutorial aquí

Unable to display content. Adobe Flash is required.

Unable to display content. Adobe Flash is required.

Unable to display content. Adobe Flash is required.

INSTRUMENTOS DE CONFIANZA

Se dice que la ONU hizo una encuesta a nivel mundial sobre alimentación y en ella se obtuvo una cantidad muy pequeña de respuestas en la pregunta clave, la cual era: “Dígame, por favor, con toda honestidad, su opinión sobre la escasez de alimentos en el resto del mundo”. Debido a esta baja tasa de respuesta los investigadores se pusieron a indagar qué es lo que había fallado en el estudio y descubrieron que la gente no había respondido a esa pregunta porque no la entendieron. Los argentinos sencillamente no entendieron qué era “por favor”, lo mismo les pasó a los cubanos con la palabra “opinión”, a los europeos con “escasez”, a los africanos con “alimento”, a los norteamericanos con “resto del mundo” y a los mexicanos…bueno allí todavía se sigue debatiendo en la cámara de diputados que es honestidad.

Creo que ningún tipo de estudio genera más polémica en México que las encuestas sobre las preferencias electorales. Cómo decía el chavo del ocho las hay de limón que parecen de jamaica pero con sabor a tamarindo ¿Están bien hechas? ¿Se hicieron de verdad? ¿Su metodología es correcta? ¿Están copeteadas? etcétera. Pos quién sabe. Creo que eso sólo lo saben algunos de los involucrados, llámense encuestadores, partido y/o empresa que encargó la encuesta, agencia de investigación, entre otros pero de lo que si estoy casi seguro es que el público en general no tiene ni la más remota idea de cómo se hacen. Este post es una explicación breve para ese público que desea conocer un poco más sobre el tema sin que tenga que esperar a que los diputados terminen de debatir sobre él. Así que comencemos.

A parte de los estudios en los cuales te preguntan: “Si el día de hoy fueran las elecciones ¿por cuál de estos candidatos o partidos votaría usted?”, existen otras herramientas demoscópicas, o sea que se emplean para evaluar aspectos de una democracia, entre los más comunes están:

1. Encuesta de salida o exit poll.
2. Conteo rápido o quick count.
3. Monitoreo de medios electrónicos (televisión y radio).
4. Análisis de prensa.

Paso a explicar brevemente el primero. Una encuesta de salida se hace el mismo día de las votaciones, en ella los encuestadores esperan a que el elector emita su voto, una vez que éste se retira se le intercepta y se le pregunta si votó, por quién lo hizo, cómo decidió su voto, entre otros datos sociodemográficos. Cómo comprenderás estos datos tienen que ser capturados a la voz de ya para que los partidos, el IFE o quien haya encargado el estudio pueda tener una idea de cómo se perfilan los resultados de la votación, es decir, antes de que ésta concluya. Este tipo de estudios pueden ayudar a saber cómo se votó por sexo, edad, estatus socioeconómico, la forma en que el votante decide su voto (lo hizo el mismo día, ya lo tenía pensado, etc.), esos datos, por supuesto, no los puedes obtener revisando o contando únicamente los votos que es lo que se hace en un conteo rápido. En general, si el estudio estuvo bien levantado y la muestra es probabilística (al azar pa’que me entiendas) y suficientemente grande el resultado va a coincidir con las cifras del IFE (Instituto Federal Electoral) en su famoso PREP (Programa de Resultados Electorales Preliminares) si no sucede así la encuesta es una porquería, el IFE miente o las fuerzas oscuras de Darth Vader están actuando otra vez.

encuesta de salida

El conteo rápido. Este estudio es más simple que la encuesta de salida, sin embargo, los investigadores tenemos aquí más presión pues los resultados se tienen que obtener en un lapso de tiempo menor. En general, el asunto se desenvuelve así. Los encuestadores esperan a que se terminen las votaciones y que los representantes de casilla cuenten los votos y peguen las mantas donde dan a conocer al público en general los resultados de su votación en su sección electoral, en ese momento el encuestado anota los resultados y los transmite a la agencia de investigación mediante señales de humo, jajaja, mentira, lo hace por teléfono, principalmente (¿se utilizarán dispositivos móviles en esta elección?), la agencia captura en sus sistema esta información y la procesa para estimar el resultado a nivel general. Cabe señalar que al igual que en la encuesta de salida se emplea una muestra de secciones electorales.

prep ife

En ambos tipos de estudios hay un par de aspectos claves que debo subrayar: la muestra y la ponderación de datos. En el primer caso cada agencia tiene su propio algoritmo (método matemático) de muestreo el cual varía en exactitud; sin embargo, dado que las muestras son muy grandes es poco probable que se obtengan resultados diferentes. Te pongo un ejemplo para que me entiendas, en el conteo rápido los datos se capturan a una velocidad vertiginosa lo que ocasiona una cantidad más o menos importante de errores no obstante la muestra es tan grande que estos tienden a anularse dando como resultado un estimador muy preciso. Suena curioso que un estudio tan grande se deba ponderar ¿verdad? pero no lo es tanto si tomas en cuenta que la gente de diversas regiones vota de manera distinta y dado que vas contra reloj algunos datos de esas regiones no se alcanzan a completar en la encuesta de salida o conteo rápido lo cual debes equilibrar utilizando el método de ponderación. Contrario a lo que puedes pensar la ponderación no cambia de manera importante los datos pero si los afina.

Seguramente, has escuchado que tal candidato o partido ya rebasó los topes financieros de campaña que estipula el IFE ¿Qué les da valor a los que dicen eso? Bueno, se fijan en las actividades de promoción, publicidad y propaganda que hacen dichos candidatos o partidos y evalúan más o menos lo que cuesta pagar por esas actividades. El IFE hace una cosa similar aunque se concentra básicamente en la televisión y la radio, es a lo que llama monitoreo de medios electrónicos. La idea es grabar noticiarios de televisión y radio y de allí codificar las veces que aparece cada uno de los candidatos o partidos, el tratamiento que se les da, es decir, si aparecen en imágenes cerradas, abiertas, de archivo, en vivo, el tiempo total en que aparecen, entre otros asuntos. La idea es que debe haber un trato equitativo por parte de los medios electrónicos a los candidatos y partidos. Por supuesto que no se pueden grabar todos los noticiarios del país por lo cual se emplea también una muestra de ellos. La obligación del IFE es mostrar los resultados de este monitoreo a la sociedad así como la metodología empleada. Quizá hablo sin fundamento pero tengo entendido que en las últimas elecciones no le han salido muy bien las cosas al IFE en este renglón.

¿Qué se hace en el análisis de prensa? La intención es inferir la opinión pública a través de las notas periodísticas para esto se recopilan diariamente las notas sobre los candidatos o partidos o cualquier otro asunto que nos interese que aparecen en los principales diarios; dentro de cada nota se codifican los mensajes, se les asigna una calificación y se agrupan por temas; hay otras variables que también se revisan pero desde mi punto de vista son menos importantes: el periodista, periódico que publicó la nota, tamaño de la nota en cm2, entre otros. Una vez hecho lo anterior se procesa la información y se pondera por la lectoría (porcentaje de personas que leen cada medio donde apareció la nota), nuestro resultado final mostrará qué temas son de los que se habla más, cuáles son los mensajes dentro de esos temas, cuánto tiempo están vigentes en la prensa y si son negativos o positivos.

Ahora si, vámonos con los estudios donde te preguntan por quién vas a votar, éstos pueden tener 2 propósitos:

a. Conocer quién va arriba en la preferencia electoral. Por mucho este es el tipo de encuestas que más se hacen en una campaña electoral y son con las que te bombardean los medios un día si y al otro también. En la farándula de la investigación de mercados se les nombre carrera de caballos.

b. Sentar las bases de una estrategia para la campaña electoral de un candidato y/o partido. Este estudio normalmente se hace antes de iniciar la campaña pues te ayuda a determinar la cantidad de votos que necesitas, de donde obtenerlos, bajo que ofrecimientos, quienes son tus votantes seguros, probables, entre muchos otros aspectos.

¿La diferencia entre uno y el otro? Déjame ponerlo en estos términos; si te fajas a un(a) chavo(a) sin decirle si quiere ser tu novio(a) entonces es como si estuvieras haciendo un estudio del tipo “a”, como quién dice “a lo que te truje Chencha” (traducción: vamos a hacer aquello para lo que te traje Vicenta) por el contrario si le pides que sea tu novio(a), también te lo(a) vas a agasajar pero tienes otros planes en mente. Seguramente, le vas invertir más tiempo y recursos a tu estudio, lo que se traduce en una muestra y cuestionario más grandes. No obstante estas diferencias, en ambos tipos de estudios las preguntas típicas a los posibles votantes son:

1. Qué tanto conocen a cada uno de los candidatos.
2. Qué imagen tienen de los candidatos o partidos.
3. Qué problemas hay en su comunidad, estado y/o país.
4. Cómo evalúan las propuestas de campaña, slogans, frases, etc.
5. Por cuál partido o candidato piensan votar.
6. Cuál es su edad, sexo, nivel socio-económico, estado civil, etcétera.

Para cada una de esas preguntas ya hay estándares muy bien establecidos sobre como plantearlas por lo que la mayoría de las empresas se parecen en este punto; sin embargo, donde si hay diferencias, y donde los cocólazos se ponen de a peso, es en la forma de procesar los resultados de esas encuestas. En particular me voy a referir a 2 cuestiones. La primera es sobre los que dicen las agencias de investigación de opinión pública son los que van a votar pero que al final no votan (probables votantes) y la segunda se refiere a los que dicen que no van votar y al final si votan (los indecisos), la forma en que se tratan y clasifiquen unos y otros hace la diferencia en el resultado.

Primer caso. Es obvio que para votar debes tener credencial de elector actualizado de la sección electoral donde dices que vas a votar y donde te están haciendo la encuesta. La primer pregunta que surge aquí es ¿cómo le hacen las empresas que realizan sondeos de opinión por teléfono para verificar esto? Hay va otra un poco menos obvia, ¿Cuál es la probabilidad de que vayas a votar en estas elecciones si en otras ocasiones no has votado? ¿No sabes? yo te lo digo, la probabilidad es baja. Por esa razón algunas empresas le hacen la pregunta al individuo acerca de si fue a votar durante las elecciones pasadas. Si pasas estos 2 filtros entonces es posible que si vayas a votar ¿La última vez que te hicieron una encuesta política recuerdas si te preguntaron si habías votado anteriormente? Si no fue así, entonces ya tienes un argumento para desacreditar esa encuesta.

Segundo caso ¿Qué hacen las agencias de investigación con los sujetos que dijeron no saber por quién iban a votar o no dieron respuesta? Algunos empresas los eliminan democráticamente como en las últimas encuestas donde dicen que 52% votará por Enrique Peña Nieto, el 23% por Josefina Vázquez Mota y el 21% Por Andrés Manuel López Obrador ¿Es verdad que no van a votar? Por supuesto que no. Si ya te dijeron que tienen credencial y han votado anteriormente entonces si lo van a hacer en esta ocasión pero el asunto es saber por quién. Esta parte es la que genera mayor escozor pues cada quien tiene su forma de matar las pulgas y es difícil saber qué algoritmo de clasificación de indecisos funciona mejor. Aquí te dejo un artículo sencillo para que te des una idea más precisa de lo que estoy hablando.

José Woldenberg, decía en el libro, “La Construcción de la Democracia” que “Las encuestas electorales bien hechas, las que se despliegan con profesionalismo y sentido ético, no son sólo ni principalmente un reto técnico, un logro de la estadística o de la ciencia de la demoscopía; las encuestas de calidad son todavía más importantes porque su concurrencia en el escenario político es parte de una empresa mayor: del enorme reto de construir confianza.” ¿Qué tan lejos estamos de crear instrumentos de confianza? La tecnología desde hace mucho tiempo ya no es problema tampoco creo que lo sean los profesionales capacitados para hacer buenos estudios ¿Entonces qué está fallando? La sociedad. No aquélla que vemos como independiente o ajena a nosotros sino donde estás tú, yo, él, nosotros, todos y no se trata de ir a votar, desde mi punto de vista eso es irrelevante, se trata de informarnos, de declararle la guerra a nuestra ignorancia, de ser mejores seres humanos y de que dejemos de hacernos los occisos fingiendo que no sabemos de qué se nos habla cuando nos mencionan “honestidad”.

Hasta la próxima y nuevamente muchas gracias por aguantarnos y leernos.