lunes, 21 de mayo de 2018

Análisis Multivarial (II)


Las técnicas multivariadas más utilizadas son las siguientes:

Componentes Principales
Este método permite obtener componentes o combinaciones lineales de las variables originales y permiten simplificar el universo de estudio, centrándose en las componentes que sintetizan la máxima variabilidad residual. Los objetivos más importantes son:
  • Generar nuevas variables que expresen la información contenida en el conjunto original de datos.
  • Reducir las dimensiones o factores del problema que se está tratando, como paso previo para futuros análisis.
  • Eliminar algunas de las variables originales que aportan poca información o variables que contiene parte de información ya suministrada por otras variables.

El análisis por componentes principales debe ser aplicado cuando se desea conocer la relación entre los elementos de una población y se sospeche que en dicha relación influye de manera desconocida variables subyacentes o características de los elementos.

Análisis factorial
Este término engloba varias técnicas que buscan explicar la correlación de un conjunto grande de variables en términos de un conjunto reducido de variables subyacentes denominadas factores. Al reducir el número de variables, los procedimientos tratan de retener la mayor cantidad de información posible y de hacer de las variables restantes tan significativas y tan fáciles de manipular como sea posible. El propósito del análisis factorial es generar una comprensión de la estructura fundamental de las preguntas, variables u objetos y combinarlos en nuevas variables.

El análisis factorial permite generar varias soluciones para un mismo conjunto de datos, cada solución es generada por un esquema de rotación de factores, es decir, cada rotación tiene una interpretación diferente y esto se lo hace en términos de cargas o puntajes de factores.

Análisis Discriminante
Si el objetivo del análisis factorial es generar dimensiones que maximicen la interpretación y expliquen la varianza, el objetivo del análisis discriminante es generar dimensiones que discriminen o separen los objetos tanto como sea posible, es decir, identificar grupos o conglomerados de atributos sobre los cuales difieren los objetos. Al igual que en el análisis factorial, cada dimensión se basa en una combinación de los atributos fundamentales.

Clasificación
Una opción de analizar y estudiar un conjunto de individuos es clasificándolos en subconjuntos de acuerdo con algún objetivo predeterminado. La clasificación trata el problema de dividir un conjunto en subconjuntos, de tal modo que la diferencia entre elementos de un mismo subconjunto sea mínima y sea máxima para los elementos de diferentes subconjuntos. La formulación matemática y estadística se realiza mediante métodos como: modelos probabilísticos, teoría de grafos o criterios de optimización y algoritmos.

El uso de las técnicas de clasificación se basa en ideas generales concernientes a las observaciones. Busca revelar una partición que realmente exista (esta existencia es conjeturada antes del análisis estadístico o es revelada después del análisis). De modo inverso, la partición se emplea como instrumento para explorar los datos. Este último caso, es una generalización de histogramas unidimensionales, que con el objeto de facilitar el análisis, las observaciones se agrupan en clases homogéneas.

Las técnicas de clasificación recurren a métodos algorítmicos. Se consideran dos tipos de métodos de clasificación: los métodos jerárquicos y los métodos no jerárquicos.

Las técnicas de clasificación jerárquica presentan una estructura de árbol. Todos los individuos forman una clase, luego dos, tres, etc. clases y finalmente cada individuo forma una clase. Si se parte de “n” clases, con un individuo cada una y se van agrupando por pasos sucesivos hasta formar una sola clase, la técnica es aglomerativa, en caso contrario es divisiva.

En el caso de los métodos de clasificación no jerárquicos el número de clases se establece a priori y el algoritmo de clasificación asigna los individuos a las clases, partiendo de algunos valores iniciales y buscando optimizar algún criterio establecido previamente.

Correlación Canónica
Esta técnica consiste en buscar las máximas correlaciones posibles en un conjunto de variables.

El análisis de correlación canónica tiene ciertas propiedades similares al análisis de componentes principales, sin embargo, éste considera relaciones dentro de un conjunto de variables, la correlación canónica lo hace entre dos conjuntos de variables. El análisis de correlación canónica es una extensión de la técnica de regresión múltiple, que busca estimar las relaciones entre las variables independientes y la variable dependiente.

Actualmente existen otras técnicas multivariadas que se han desarrollado paralelo a la evolución de las TICs. Algunos de estas técnicas son: Escala Multidimensional, Análisis Path, Análisis de Series Cronológicas, Mapas Multidimensionales, Correspondencia Binaria y Múltiple.

lunes, 14 de mayo de 2018

Análisis Multivariado (I)


Cuando se requiere analizar situaciones complejas, muchas veces no basta una sola variable, es el caso para investigaciones en educación, salud, seguridad social, justicia o economía; entonces, en esta situación se hacer necesario utilizar múltiples variables, para lo cual se requiere utilizar el análisis multivariado.

El análisis multivariado es un conjunto de métodos, los cuales pueden analizar simultáneamente la relación existente entre variables correlacionadas.

Cuando se analizan varias características (variables) de un mismo individuo, estas variables por lo general están correlacionadas. El análisis estadístico univariado realizado separadamente para cada característica puede conducir a interpretaciones erróneas de los resultados, ya que se ignora la correlación entre variables.

Las técnicas multivariadas son herramientas eficaces para analizar los datos expresados en de muchas variables y permiten obtener la máxima información posible de los datos. En la actualidad existen programas estadísticos que permiten utilizar estas técnicas.

En el campo multivariado pueden utilizarse diferentes enfoques, tanto por las distintas situaciones que se presentan al obtener los datos, como por el objetivo específico del análisis. Entre las más importantes se tiene:

Clasificación
Este tipo de análisis permite ubicar las observaciones dentro de grupos o bien concluir que los individuos están dispersos de manera aleatoria en el espacio multivariable. También pueden agruparse variables. Las técnicas empleadas son: a) los métodos de clasificación jerárquicos, b) los métodos de clasificación no jerárquicos y c) el análisis discriminante.

Simplificación de la Estructura o Reducción de Datos.
El objetivo es encontrar una manera simplificada de representar el universo de estudio. Esto se logra mediante la transformación de un conjunto de variables interdependientes en otro conjunto de variables independientes o en otro conjunto de menor dimensión. Las técnicas que se utilizan con mayor frecuencia son: a) el análisis por componentes principales y b) el análisis factorial.

Dependencia entre variables
Para ello se seleccionan del conjunto ciertas variables (una o más) y se estudia su dependencia de las restantes. Entre los métodos para detectar dependencia comprenden a) el análisis de regresión múltiple, b) análisis de correlación canónica y c) análisis discriminante.

Análisis de la Interdependencia
El objetivo es analizar la interdependencia entre variables, la cual abarca desde la independencia total hasta la colinealidad, cuando alguna de ellas es combinación lineal de las otras. Entre las técnicas para analizar la interdependencia entre variables o individuos se incluyen el análisis de factores, clasificación, el análisis de correlación canónica, el análisis por componentes principales.

Formulación y Prueba de Hipótesis
A partir de un conjunto de datos es posible encontrar modelos que permitan formular hipótesis en función de parámetros estimables. La prueba de este nuevo modelo requiere una nueva recopilación de datos a fin de garantizar la necesaria independencia y validez de las conclusiones. Una de las técnicas empleadas es el MANOVA (Análisis Multivariado de la Variancia).

lunes, 7 de mayo de 2018

El buen uso de la Ciencia Estadística


Una elección adecuada de las pruebas estadísticas según las variables de interés, un correcto análisis de datos y una adecuada presentación de los resultados, ajustadas al contexto del área de conocimiento y los objetivos del estudio tendrán un impacto positivo en los trabajos que se lleven a cabo en una investigación científica.
La aplicación de los conceptos de la ciencia estadística es un tema  común en la mayoría de las investigaciones científicas cuantitativas, ya que permiten establecer parámetros poblacionales, determinar el compartimiento temporal y espacial de los fenómenos sociales y económicos y sus factores críticos, entre otros aspectos; entendiendo que la mala selección de una determinada prueba o una interpretación errada de los resultados puede desencadenar consecuencias negativas para la población, sea esta la sociedad, los clientes, usuarios o pacientes.

Los investigadores jóvenes tienden a prescindir de la estadística en sus investigaciones, debido a la falta de conocimiento acerca del tema y la importancia que reviste su uso como un soporte matemático de los resultados que busca obtener. Este poco uso de la estadística, los lleva a pensar que no es necesario.

Entre los aspectos que llevan al poco uso de las estadísticas se cuentan: a) la dificultad para seleccionar las pruebas adecuadas según las variables de estudio, b) mala interpretación de los resultados obtenidos por los programas estadísticos o c) no saber manejar los programas estadísticos.

Es necesario definir cuáles serán las variables a estudiar y tener un claro conocimiento del tipo de cada una de ellas. Esto permitirá seleccionar adecuadamente las pruebas estadísticas a aplicar y evitar un mal uso de las pruebas estadísticas.

La falta de asesoramiento por parte de un estadístico o de un investigador experimentado puede ocasionar la elección de pruebas por ejemplo, analizar variables cuantitativas con la prueba de Chi cuadrado de Pearson; aplicar comparaciones de medias a variables cualitativas binomiales; realizar análisis de variancia cuando no se cumplan el supuesto de normalidad de las variables, etc.

Algunos investigadores emplean de manera adecuada análisis de inferencia estadística en los datos obtenidos en sus investigaciones; sin embargo, hay un cierto abuso de la estadística, cuando enfatizan la presentación de sus resultados con las salidas de los paquetes estadísticos, restándole importancia a los resultados reales del estudio.

Es común que en los trabajos de investigación, se presenten como resultados tablas o cuadros con valores de la prueba t de Student, valores F, de Chi cuadrado, grados de libertad, etc.; aunque lo interesante para cualquier investigador y más aún, para los futuros lectores  del trabajo que se presenta, son los valores obtenidos en el contexto del área de conocimiento específico, como serian por ejemplo: promedios, frecuencias de casos con determinada característica según la procedencia, frecuencia del consumo de sustancias o tipos de alimento entre la población, etc. Está claro que no se debe dejar de indicar el valor de significancia estadística (p-valor), colocando las salidas del programa estadístico en un anexo.

También es necesario indicar si los resultados obtenidos corresponden a una muestra o una población, indicando el tamaño respectivo. Haciendo la diferencia con un dato estadístico obtenido en un periodo de tiempo, que no necesariamente es toda la población, sobre todo cuando se trata de los servicios públicos (acceso a la salud, educación y programas sociales), ya que podrían dar a entender que es toda la población, cuando sólo es una parte.

lunes, 30 de abril de 2018

Metodología Estadística en una Investigación Cuantitativa




Los elementos estadísticos más utilizados para realizar una investigación con enfoque cuantitativo, son las siguientes:
El análisis de los datos se efectúa utilizando una matriz de datos.

Las pruebas estadísticas a realizar dependen del nivel de medición de las variables, las hipótesis y el interés del investigador.

Los análisis estadísticos pueden realizarse a nivel descriptivo para cada variable, y a nivel de la estadística inferencial (pruebas paramétricas y no paramétricas) y análisis multivariados.

Las principales medidas de tendencia central son la moda, mediana y media.

Las principales medidas de la variabilidad son el rango, la desviación estándar y la varianza.

Otras estadísticas descriptivas de utilidad son las asimetría y la curtosis.

Una razón es la relación entre dos categorías y una tasa es la relación entre el número de casos de una categoría y el número total de casos.

La estadística inferencial permite generalizar las estimaciones de la muestra. Se utiliza para probar hipótesis y estimar parámetros. Se basa en el concepto de distribuciones de probabilidad teórica como la Normal, t, F y Chi-cuadrado.

La distribución normal es un modelo teórico sumamente útil.

El nivel de significancia es el nivel de probabilidad de cometer un error en la prueba de hipótesis y estimación de parámetros. Los niveles más comunes son el 0.05 y 0.01.

Los análisis o pruebas estadísticas paramétricas más utilizadas son:
  • Coeficiente de correlación de Pearson.
  • Regresión lineal simple y múltiple.
  • Prueba “t” para deferencia de grupos.
  • Contraste de la diferencia de proporciones Diferencia de grupos.
  • Análisis de varianza (ANOVA).
  • Análisis de covarianza (ANCOVA).

Para las pruebas estadísticas paramétricas las variables deben estar medidas en un nivel por intervalos o razón.

Las pruebas estadísticas no paramétricas más utilizadas son:

  • Chi_cuadrado.
  • Coeficiente de correlación e independencia de Pearson.
  • V de Cramer.
  • Lamda.
  • Gamma.
  • Tau b.
  • D de Somers y Eta.

Las pruebas no paramétricas utilizan variables nominales u ordinales.

Los análisis multivariados más utilizados son:

  • Análisis de regresión múltiple.
  • Análisis de Factores.
  • Análisis multivariado de variancias (MANOVA) y correlación canónica.
  • Análisis discriminante.
  • Análisis de Jerarquización.

Los análisis estadísticos se llevan a cabo mediante computadora, utilizando programas estadísticos, los programas más conocidos son: SPSS, Minitab, Statgraphics y SAS.

lunes, 23 de abril de 2018

Margen de Error



Hice una apuesta con el presidente. Él estimó que la población del Perú llega a 32 millones; yo que apenas somos 30 millones. La apuesta se dio durante una exposición ante el Consejo de Ministros acerca del censo nacional que se realizará el próximo 22 de octubre.


Tramposamente, me aproveché de información que aún no es de dominio público. Habiendo transcurrido casi diez años desde el último censo, nadie sabe a ciencia cierta el tamaño exacto de la población, pero los expertos saben que se vive una desaceleración, consecuencia de una reducción en la natalidad. La familia peruana promedio ya no consiste en cinco sino en tres y medio personas pero el efecto de esa tendencia no se ha incorporado aún en las estimaciones de población publicadas. En Internet, por ejemplo, hay afirmaciones oficiales recientes que respaldan la apuesta del presidente, y señalan una población del orden de 32 millones.

Hace dos o tres décadas, el dato poblacional era interesante pero poco relevante en la vida nacional. Hoy, gracias a las nuevas tecnologías de procesamiento digital los datos están en el centro de la conducción, tanto del Estado como de los negocios. Los medios se llenan de números, los censos y las encuestas se multiplican, y no sorprende entonces que el censo motive una larga discusión por parte del Gabinete. Hoy, los planes y presupuestos de cada sector del Gobierno se formulan y se aprueban en base a diversas estadísticas que, en su mayoría, son provistas por el INEI, y que en gran parte se sustentan en los datos del censo.

Ese nuevo apetito por los datos nos obliga a una reflexión acerca de su calidad, en especial acerca del famoso “margen de error”. Este término aparece cada vez que se publican encuestas, creando una impresión de exactitud. Pero es engañoso porque induce a pensar que el pequeño error técnico que dicen medir es el único posible error. Sin embargo, las encuestas pueden contener una variedad de errores no sospechados por el lector, derivados de un inadecuado diseño del cuestionario o de un trabajo de campo imperfecto. La posibilidad del error no se limita a las encuestas sino que abarca todo tipo de estadística, y la guerra para minimizarlo es una parte central del oficio de los expertos estadísticos.

Un resultado del esfuerzo continuo de perfeccionamiento es que la exactitud de cada dato no se logra de inmediato sino gradualmente, según se va obteniendo información adicional que permite afinar las estimaciones originales. De allí la incómoda necesidad de publicar continuas revisiones de los números, práctica común de los INEI de la mayoría de los países. Estados Unidos, por ejemplo, publica revisiones anuales de sus cifras del PBI de años anteriores, sorprendiendo al público que debe reacomodar sus explicaciones teóricas y políticas.

La nueva importancia de la estadística plantea un reto de gobernanza. Cada día es más necesaria la calidad y la autonomía de los proveedores de datos. El público debe comprender las limitaciones técnicas de ese oficio y respetar la honestidad de los técnicos, así como respeta a los meteorólogos que predicen la ruta de un huracán, aunque sabemos que también pueden equivocarse y deben estar continuamente revisando sus proyecciones.

lunes, 16 de abril de 2018

Consideraciones Metodológicas en la Investigación


A fin de lograr una aceptable organización en una investigación, se debe tener en cuenta los pasos del método científico y los elementos de la metodología que la describirá con detalle y claridad, ya que el proceso de investigación nunca es rígido.
Existen diferencias entre la investigación cualitativa y la cuantitativa. En la investigación cualitativa, el investigador da mayor énfasis a la descripción minuciosa de los antecedentes, hasta las posibles raíces del problema que se estudia. Se formula un marco teórico que fundamenta el método y desarrollo de la investigación, ajustando los datos y averiguaciones, en un proceso de retroalimentación entre el investigador y los investigados; su participación en la investigación, no los involucra en la etapa previa o planificación del estudio.

La investigación cuantitativa presenta un largo desarrollo y se aplica en forma general al estudio de las ciencias tanto naturales como humanas. En la actualidad, estas dos ramas de la investigación no se consideran antagónicas sino complementarias.

El primer paso del proceso investigativo, es la pregunta que identifica el problema y la definición específica del mismo; para establecer una relación entre las variables identificadas.

El paso siguiente consiste en realizar una lista de términos o descriptores, que permitan al investigador profundizar en la revisión de fuentes y antecedentes adecuadas, y determinar un marco teórico. Plantearse preguntas que surgen al tener un conocimiento más completo del problema a investigar.

Existe una relación entre los pasos descritos anteriormente. Al revisar la teoría y los estudios de investigación pertinentes se puede reafirmar la teoría o elaborar una nueva. El investigador puede plantear una hipótesis que debe probar. La investigación se fundamenta en el conocimiento teórico para plantear hipótesis y la comprobación de ésta significa un avance del conocimiento con una permanente evolución y dependencia entre ambos.

Luego de formular el problema, propósitos y objetivos, e hipótesis del estudio, el paso siguiente es determinar las técnicas e instrumentos necesarios para obtener datos que contribuyan al logro de los propósitos y objetivos, y permitan aceptar o rechazar (estadísticamente) la hipótesis planteada.

A continuación, el investigador seleccionará el diseño más apropiado para el estudio. Estos pasos se describen secuencialmente, pero requieren un cuidadoso análisis de las relaciones lógicas que existen entre ellos.

lunes, 9 de abril de 2018

Estadísticas y Sistema de Justicia

Para conocer el alcance de un sistema de justicia penal, se requiere identificar a los usuarios y los usos de los datos estadísticos. ¿Quiénes son los usuarios potenciales, actuales y pasados del sistema? ¿Cuáles son las cuestiones políticas claves que deberían incluirse en un programa de mejoramiento de las estadísticas sobre justicia penal? ¿Quiénes deberían remitir datos al sistema nacional? ¿Quién debería recibir los datos? ¿Qué datos deberían remitirse, en qué forma, en qué intervalos y, para qué fines?
Los datos estadísticos se reúnen para contestar preguntas, entonces para la elaboración de un programa de mejoramiento del sistema nacional de estadísticas sobre justicia penal se deben determinar las interrogantes más importantes que deben ser respondidas. A continuación se sugieren algunas posibles preguntas:
¿Cuál es la prevalencia o frecuencia de los diversos delitos?
¿Cuál es la tasa de criminalidad? ¿Qué regiones del país tienen los mayores índices de delincuencia?
¿Algunos tipos de delitos están aumentando o disminuyendo?
¿Cuál es el grado de prevalencia de la violencia doméstica?
¿Cuántos delincuentes hay?
¿En qué medida hay una correspondencia entre los delincuentes y las víctimas?
¿Quién es el delincuente “típico”?
¿Qué tipos de delitos se cometen y por qué delincuentes?
¿Cuáles son las características de los delincuentes habituales?
¿Qué parte de la delincuencia es atribuible a los jóvenes?
¿En qué medida participan en la delincuencia personas de distintos grupos étnicos?
¿Se está incrementando la participación de la mujer en la delincuencia?
¿Cuáles son los antecedentes familiares, socioeconómicos y educacionales de los reclusos?
¿Cuál es el papel de las drogas y el alcohol en la vida de los delincuentes?
¿Cómo tramita los casos el sistema de justicia penal?
¿Qué es la discrecionalidad y cómo se ejerce en la tramitación de los casos penales?
¿Qué relaciones hay entre la cantidad de funcionarios policiales en las distintas partes del país?
¿Cuál es la relación entre la cantidad de policías y la delincuencia en una región?
¿Cuántas personas son detenidas en un año y por qué delitos?
¿Qué porcentaje de los delitos dan lugar a una detención?
¿Qué efectos tiene sobre las detenciones la tardanza de la víctima en formular la denuncia?
¿Cuál es el papel del fiscal?
¿Cuántas detenciones dan lugar a enjuiciamiento?
¿Cuántos enjuiciamientos culminan en declaración de culpabilidad?
¿Cuál es la proporción de procesados que obtienen la libertad provisional?
¿Cuántos procesados liberados provisionalmente no comparecen en el juicio o cometen nuevos delitos?
¿Los infractores juveniles reciben un tratamiento distinto al de los adultos?
¿Cómo están organizados los tribunales?
¿Qué grado de interacción existe entre los diversos tribunales?
¿Cuáles son las principales diferencias entre los tribunales de adultos y de menores?
¿En cuántos casos en que el fiscal pide el procesamiento se declara culpable el acusado? ¿Cuántos casos culminan con una determinación de culpabilidad?
¿Cuánto tiempo dura la tramitación completa de una causa penal en el sistema de justicia penal?
¿Son parecidas las condenas que se imponen para delitos análogos?
¿Se está incrementando la cantidad de causas sometidas a los tribunales de apelación?
¿Cuántas personas están sometidas a alguna forma de supervisión penal?
¿Qué diferencia existe entre la duración de las penas que se imponen y el tiempo de cumplimiento efectivo de la condena?
¿Cuántos presos están recluidos en establecimientos penales?
¿Se está incrementando la población carcelaria?
¿Cuántas personas están cumpliendo sus condenas en libertad vigilada?
¿En qué tipo de establecimientos están recluidos los presos?
¿Cuántas personas puestas en libertad condicional regresan a la cárcel?
¿Cuánto gasta el gobierno en la justicia penal?
¿Cuál es el costo del sistema policial, del ministerio público, los tribunales y del sistema carcelario?
¿Qué se compra con los fondos destinados a la justicia?
¿Cómo se gastan esos fondos?
¿Cuánto cuesta mantener a una persona en la cárcel o en libertad vigilada?
¿Cuánto cuesta construir una prisión o una cárcel?
¿Cuánto se gasta por cápita en el sistema de justicia penal?
¿Cuáles son las relaciones entre el gasto por cápita en justicia y la tasa de criminalidad de un país?
¿Qué proporción del gasto total del gobierno se dedica a la policía, los tribunales y el sistema carcelario?
¿Cómo ha variado esa proporción anualmente?

Además de las prioridades en información estadística sobre la delincuencia y la justicia penal del país, es importante que se puedan hacer comparaciones con países relativamente similares de la región o del mundo y considerar la situación nacional en un contexto mundial.

Con la potencialidad que tiene las técnicas estadísticas, permitirán que estos datos sirvan para elaborar diagnósticos cada cierto tiempo, tendencias, simulaciones y proyecciones, que ayudaran a tomar decisiones, a fin de combatir la delincuencia y garantizar la seguridad ciudadana.

lunes, 2 de abril de 2018

Datos individuales vs. Datos agregados


Los datos cuantitativos implícitamente brindan mayor información respecto a los datos categóricos o cualitativos. Por eso es necesario precisar la diferencia de trabajar los datos agregados y datos unitarios o individuales.
Por ejemplo, qué información podríamos obtener de una base de datos si se quisiera saber cuál es el tiempo que tarda un caso en el sistema judicial.

Con un enfoque de datos agregados se dispondría de la cantidad de casos comprendidos en las distintas categorías de tiempo predeterminados, si por ejemplo, supongamos que se definieron tres categorías de tiempo: menos de seis meses, de seis meses a un año y más de un año. Con esas tres categorías es posible determinar la distribución del tiempo que duraría los casos según las categorías definidas.

En otras palabras, habría una cantidad total de casos que concluyeron en menos de seis meses, pero no sería posible determinar cuántos concluyeron en un mes, o cuántos demoraron cinco meses antes de concluir. Análogamente, habría una cantidad total de casos que demoraron más de un año en concluir, pero no sería posible determinar cuántos demoraron dos o tres años.

A diferencia de los datos agregados, los datos individuales contienen información sobre cada uno de los registros. Siguiendo con el ejemplo del tiempo que tarda cada caso, el enfoque de datos individuales permitiría reunir información sobre la fecha de inicio a la primera comparecencia ante los tribunales y la fecha de la decisión final del caso.

Al disponerse de esas dos fechas respecto de todos los casos en proceso en los tribunales, sería posible calcular el tiempo que tardó cada caso y luego el total de casos en cualquier período que se desee, basta con definir los períodos que interesan y luego determinar los casos comprendidos en diferentes categorías que se tenga un interés particular.

En caso se requiera información sobre la distribución de casos resueltos en seis meses o menos, se podría hacer una consulta a la base de datos para encontrar la cantidad de casos concluidos dentro de un, dos, tres, cuatro, cinco y seis meses; incluso si se necesitaran más detalles, mediante una consulta se podría averiguar la cantidad de casos concluidos en cinco, en diez, o en 15 días.

Del mismo modo se puede proceder con datos individuales referidos a las edades, ingresos, ahorros, talla, peso, etc.; es decir a datos cuantitativos continuos que se requieren sean agregados o categorizados en cualquier momento en varios grupos, y en diferentes rangos.

Una de las ventajas de los datos individuales radica en que facilita la verificación de los datos y la calidad de los mismos. Ésta consideración es importante para el logro de la confiabilidad de las estadísticas obtenidas. El mejor mecanismo para promover la confianza en la generación de datos, consiste en facilitar la verificación y el análisis de los datos al nivel más detallado posible.

lunes, 26 de marzo de 2018

Estadística y Decisiones


Hace apenas unas décadas, disponer de los datos y luego analizarlos eran actividades costosas y laboriosas, ya que se basaba en labores manuales. Hoy se cuenta con computadoras veloces y económicas, y existe software y aplicaciones potentes y flexibles, por lo cual las organizaciones obtienen diferencia competitiva en relación a su competencia, y podrán mejorar continuamente la performance de sus indicadores de los procesos y las actividades que se gestionan en una organización.
Pero no se puede gestionar lo que no se mide. Si no se puede medir, no se puede controlar. Si no se puede controlar, no se puede gestionar. Si no se puede gestionar, no se puede mejorar. La falta de estadísticas en las organizaciones impide su administración. Decidir en base a datos del pasado, predecir por intuición o en simples extrapolaciones, y tomar decisiones desconociendo las probabilidades de ocurrencia, son sólo algunos de los problemas más comunes que ocurren en las organizaciones.

Cuando los procesos de cambios eran lentos, los cuales resultaban casi imperceptibles en el tiempo, se podía administrar una organización con pocos datos estadísticos. Hoy, en una era de profundos y veloces cambios en todos los órdenes, ya no es posible actuar con desinterés. Hoy un tomador de decisiones necesita predecir a tiempo diversos indicadores, necesita reconocer a tiempo los cambios de tendencia.

Para negociar, para corregir problemas de calidad, para aumentar la productividad, para fijar precios, para eliminar los “cuellos de botella”, para invertir, para contratar nuevo personal, para diseñar y evaluar políticas públicas, para elaborar presupuestos, para priorizar proyectos, etc., se requiere contar con datos estadísticos. Toda decisión, todo análisis, está en el aire si no se cuenta con datos estadísticos suficientes y fiables.

Toda organización pública o privada, de avanzada, son aquellas que hicieron de las estadísticas una herramienta fundamental. Sin estadísticas una organización carece de capacidad para reconocer qué actividades o productos se cumplen a tiempo y cuáles no. No gestionar datos ni interpretarlos correctamente es para los administradores como caminar a oscuras. Gestionar datos, permite ver lo que está aconteciendo y en consecuencia tomar las medidas más eficientes y oportunas.

Cada día se exige ser más productivos y eficientes, ello es posible a partir de información estadística debidamente analizada.

Pretender dirigir una organización como hace un par de décadas atrás ya no es posible. El tomador de decisiones tiene en sus manos la decisión de mejorar su institución a través de una gestión moderna con base en datos estadísticos o seguir en la oscuridad.

lunes, 19 de marzo de 2018

El Idioma y la Estadística


Cada vez es mayor la influencia de la estadística, no existe profesión o actividad humana que no reciba los beneficios de su aplicación, hasta el extremo de que rara es la actividad humana moderna, en que no se utilice. En economía, en biología, en sociología, en urbanística, en derecho, en astronáutica, en las más diversas fases de la tecnología, e inclusive en ciencia militar, la estadística realiza una labor sumamente útil, proporcionando una base real y altamente eficiente para sus estimaciones a un corto, mediano y largo plazo.
Puede afirmarse hoy, en virtud de tal circunstancia, que la estadística es el pilar en que se apoya el normal y correcto desarrollo de las actividades humanas de este siglo de progreso, y que todo lo que a ella se refiere es de suma utilidad para el hombre moderno, en cualquier faceta.

Por otra parte, no se puede negar que los mayores progresos en estadística, y consecuentemente las obras y estudios más útiles, provienen de Inglaterra, Estados Unidos y los países europeos, así como las técnicas estadísticas más modernas y fehacientes, de donde se desprende que el idioma más empleado en dichos trabajos, y el que más se utiliza como medio de consulta, es el inglés.

La excepcional importancia que ha adquirido la estadística, que crece de día en día, en países cuyo idioma es diferente al español, es una poderosa razón para que al usar y aplicar dichos avances y al realizar la traducción de los conceptos y términos, se creen muchos anglicismos o se utiliza combinando los conceptos en el idioma nativo y el inglés indistintamente.

Igualmente al utilizar libros y literatura estadística producida, traducida y desarrollada en México, Colombia o Argentina, el vocabulario y por ende los conceptos, sean más afines al entendimiento de los profesionales de esos países, luego se crean palabras diferentes para un mismo concepto o palabras parecidas para conceptos diferentes.

Por tal razón se debe recurrir a los glosarios o diccionarios de los textos de estadística, o a aplicaciones que aparecen en la Internet (p.e. Divestadistica, Comunidad Andina), para precisar algún concepto, pero es necesario revisar dos o más fuentes.

Conforme vamos aplicando las técnicas estadísticas, vamos a encontrar dificultades en entender en aplicar los conceptos, y seguramente revisando varios textos o artículos, vamos a lograr entender las razones y muchas veces están se deben al concepto no ha sido traducido (Bootstrapping o Simular muestreo, skewness o Asimetría).

El reto esta entonces de leer en inglés y revisar trabajos donde se aplique las técnicas estadísticas que no tienen traducción o esta traducción nos parece que no tiene correlato con lo que hacemos.

lunes, 12 de marzo de 2018

Estadística y Mejora de la Calidad


Las herramientas estadísticas contribuyen al control de la calidad y a la mejora de procesos. Pero los métodos estadísticos no son suficientes por sí mismos.
La mejora de la calidad requiere de un esfuerzo paciente y sostenido a lo largo del tiempo por parte de gerentes y trabajadores en todos los niveles. Deming, un estadístico profesional que introdujo el control de la calidad y algunos métodos de mejora en el Japón, insiste en la necesidad absoluta de un compromiso gerencial sostenido.

La mayoría de las personas tiende a pensar en el proceso de control de la calidad en el contexto de las industria manufacturera, pero las mismas ideas se aplican de igual modo al otorgamiento de créditos, a los talleres para automóviles, al manejo de reservaciones en un hotel, a los procesos judiciales, al sector gobierno y a muchas otras actividades. Uno de los mensajes clave de los expertos en la mejora de la calidad es que hay que pensar más en la mejora de los procesos a largo plazo y menos en tratar de "apagar incendios" con medidas de corto plazo.

La calidad rara vez da saltos hacia arriba; más bien, cuando sucede lo hace con pequeños incrementos. Una mejora en el diseño del producto, una modificación a un proceso de un servicio, una mejora en la cooperación con un cliente, un producto hecho a la medida para satisfacer las necesidades de los clientes, todos estos son pequeños saltos que se deben dar repetidamente para mejorar la calidad. Se necesita que la gerencia sea paciente y perseverante para insistir en la mejora de la calidad sin recibir una recompensa inmediata.

Una idea que hace posible la mejora de la calidad es la experimentación inteligente. Casi toda tarea se puede realizar de distintas maneras, algunas buenas y otras malas. Un enfoque mucho más productivo es la experimentación planificada, el pensamiento sistemático acerca de todos los aspectos de un proceso y la búsqueda deliberada de mejoras en todas sus partes. Aquí es donde el pensamiento estadístico es vital.

El pensamiento estadístico añade la idea clave de variabilidad. Todo proceso de fabricación o de servicios tendrá algún grado de variabilidad en sus resultados. Un aspecto importante es saber si las variaciones recientes en los resultados de un proceso caen dentro de un rango normal o si están "fuera de control".

Los conceptos estadísticos de variación y experimentación por lo general están juntos. En muchos problemas de mejora de la calidad, reducir la variabilidad es al menos tan importante como mejorar el promedio de la calidad. Una cadena de hoteles puede instaurar un cambio en su proceso de reservaciones que reduzca el tiempo medio por reservación en un 10%; si este cambio incrementa la variabilidad del tiempo en un 100%, la cadena podría esperar que se redujese considerablemente la demanda de reservaciones. Una aerolínea que reduce la duración media de un vuelo en dos minutos (98,5 % de los vuelos llegan dos minutos antes, y el 1,5 % llega con un retraso de 40 minutos) no haría feliz a nadie.

Un gerente que se vale de los experimentos estadísticos y piensa tanto en los promedios como en la variabilidad, debería de ser capaz de mejorar considerablemente la calidad, siempre y cuando sea paciente y realice un esfuerzo permanente.

lunes, 5 de marzo de 2018

Razones para hacer la Tesis


Entre las razones más importantes que se tiene para hacer una tesis son: profesionales, académicas, sociales y personales.
Profesionales

  • Mejora la empleabilidad, porque garantiza competencias deseables.
  • Promueve la capacitación permanente y continua, a nivel de posgrado.
  • Promueve la especialización.
  • Desarrolla la actualización profesional.

Académicas

  • Permite, confirmar, cuestionar o aportar nuevas teorías y métodos en una disciplina de estudios.
  • Crea conocimiento en el área de formación profesional.
  • Sirve de base para futuras publicaciones científicas.
  • Son antecedentes para futuras tesis e investigaciones.
  • Genera información para enriquecer las cátedras y la docencia.
  • Mejora la imagen y prestigio de la universidad.

Sociales

  • Contribuye al desarrollo regional, local y zonal, con la investigación realizada.
  • Crea conocimiento para el desarrollo social.
  • Crea las bases para que los futuros profesionales valoren el conocimiento y la investigación, aumentando la competitividad.
  • Aumenta el número de profesionales con mayores ingresos, contribuyendo a mejorar el nivel de vida.

 Personales

  • Promueve la realización y satisfacción personal y lo puede motivar a continuar por el camino de la investigación.
  • Aumenta la confianza personal y profesional.
  • Promueve los valores intelectuales (tenacidad, inteligencia, argumentación, diálogo, rigurosidad, honestidad, esfuerzo).
  • Aumenta las expectativas generacionales, es un ejemplo a seguir.

lunes, 26 de febrero de 2018

Dar Sentido a los Datos


La estadística, es la ciencia de dar sentido a los datos. En la década de los ochenta se empezó a tomar conciencia de que el pensamiento estadístico es una de las claves para la administración y la gerencia. 
Cuando un grupo de directivos tiene que decidir cómo elaborar un nuevo producto, puede guiarse por sus gustos e intuición, u obtener datos de una encuesta acerca de las preferencias de los consumidores. Cuando las piezas de una fábrica se rechazan debido a problemas con la calidad, los directores de los departamentos de diseño, ingeniería, compras y producción pueden discutir tratando de culparse los unos a los otros, o pueden obtener datos para determinar qué es lo que ocasiona el problema. Obtener y utilizar datos en forma inteligente resuelve muchos problemas.

Todo gerente o directivo tiene la necesidad y la ocasión de tratar con datos. La necesidad puede ser obvia, como en el caso de las empresas crediticias que deben analizar el comportamiento de cientos de clientes a los que se les han hecho préstamos, o de una Clínica que tiene que conocer día a día la disponibilidad de camas y salas de operación. En otros casos, la necesidad puede ser menos obvia; por ejemplo, los administradores de un hotel, con el registro anticipado de huéspedes para reducir las colas y los tiempos de espera en la recepción; o una cadena de tiendas de equipos de cómputo podrían pasar por alto que al combinar los datos relativos a las ventas con los del inventario se pone de manifiesto que el afán por alcanzar su cuota mensual de ventas está provocando problemas periódicos con el inventario, que se pueden evitar.

El pensamiento estadístico es indispensable para todo decisor, tanto al tratar con las operaciones cotidianas como al buscar oportunidades para mejorar. El pensamiento estadístico se encuentra en torno a los siguientes temas: cómo recabar datos útiles; cómo hacer los datos una forma comprensible; cómo utilizar los conceptos de la teoría de la probabilidad; cómo inferir y hacer predicciones con base en la limitada información disponible y cómo utilizar las computadoras en el proceso.

Para ser útiles, los datos se deben recopilar y poner a nuestra disposición, ya sea a través del muestreo, de una experimentación o de archivos públicos o privados disponibles.

Una larga lista de números y datos no son de mucha utilidad. Se les debe resumir o sintetizar para que se pueda entender, interpretar o utilizar en el hecho que se estudia. Si pueden ser graficados, mejor.

Dar sentido a los datos implica comprender la variabilidad aleatoria, ya que donde hay aleatoriedad hay incertidumbre, por lo que los resultados de una muestra o de un proceso no se puede predecir con precisión absoluta, por lo que se requiere conocer los conceptos de probabilidad.

Al usar los datos, un decisor ha de inferir algunas características de la población subyacente basándose en la limitada información que se cuenta, esta inferencia contiene un grado de incertidumbre, que el decisor o investigador conoce.

Con el advenimiento de las computadoras personales el dar sentido a los datos se ha hecho más fácil. Existen cientos de paquetes de software estadístico. De manera que ahora uno se puede concentrar más en los resultados y en su presentación, más que en el procesamiento de los datos.

Reiteramos lo que se mencionó  anteriormente en este blog: a pesar de los avances logrados en estadística a la actualidad, aún las empresas y las instituciones tutelares del gobierno no han llegado a incorporar a la práctica el pensamiento estadístico necesario, a pesar que las TICs, permiten que este sea más alcanzable.

lunes, 19 de febrero de 2018

Derecho y Estadística


En el campo del Derecho, la matemática y la estadística, cumplen la función de desarrollar el razonamiento lógico de los abogados y se vuelve una herramienta básica para construir procesos argumentativos, que no puedan ser rebatidos, lo cual garantiza su posición.
En algunos planes de estudio en derecho, ya se han incluido la materia de matemática, debido a que ninguna especialidad de dicha carrera escapa la necesidad de aplicar instrumentos matemáticos o de interactuar con profesionales de esas disciplinas. Otras asignaturas son: economía y estadística (tratan conceptos cuantitativos, se definen variables, se plantea hipótesis para buscar su aceptación o rechazo a través de los argumentos pertinentes); contabilidad general (permite analizar la información proveniente de las actividades económicas que llevan a cabo las empresas y describir los resultados de estas por medio de estudios financieros).

La aplicación de las matemáticas y la estadística son fundamentales para estudiar derecho; en el caso de la estadística, esta se convierte en un instrumento fundamental para su desarrollo, ya que estamos frente a situaciones y hechos aleatorios; como sucede en el derecho penal, derecho mercantil, derecho minero, derecho agrario, etc.

En el caso de una reforma constitucional de los sistemas penales de justicia en los países, donde el sistema que antes giraba alrededor del juez, y prevalecía la mecánica escrita y ahora se realizan de manera oral, pública, transparente, abierta con ciertos ingredientes como la inmediatez, donde las partes siempre están en contacto directo con el juez, y el juez esta con las partes en un ambiente controlado, donde todo se graba en audio y video, se hace imprescindible el uso de la estadística.

Una reforma constitucional genera un problema de planeación complejo, porque si bien se conoce la mecánica de operación del sistema tradicional, al entrar en un periodo de transición, se genera una serie de cambios y hay riesgos importantes de no lograr dimensionar exactamente las cantidades de recursos necesarios y se puede ocasionar al estado un gasto innecesario y si no se dimensionan los recursos adecuados se puede colapsar el sistema que se está implementando.

Precisamente las matemáticas y la estadística pueden ayudar a dimensionar y entender que se está hablando de un problema muy complejo, que requiere de conocimientos de estadística, que la mayoría de abogados no cuentan.

Se necesita dimensionar el problema y generar un protocolo que permita saber de qué se trata este problema, entenderlo con claridad. Es un problema de matemática concreta, de la teoría de probabilidades, una rama específica de la estadística. la respuesta básicamente está en solucionar un problema de optimización, por un lado  la asignación y el desarrollo de presupuestos alineados a niveles de servicios deseados, utilizando específicamente distribución de probabilidades para entender cómo funciona el comportamiento de los datos, para posteriormente modelarlos y simular escenarios multivariados que permitan tomar decisiones. No contar con un modelo, es imposible tomar decisiones sobre asignación de presupuestos y recursos.

Para realizar proyectos específicos de transformación del estado, para generar políticas públicas como la reforma constitucional, es fundamental el uso de técnicas estadísticas. Se deben desarrollar acciones gubernamentales, acompañados de métodos cuantitativos de forma congruentes, que permita dimensionar, generar modelos matemáticos para tomar decisiones muy concretas: ¿cuántas salas se va a necesitar? ¿cuántos jueces? ¿cuánta infraestructura? ¿capacitación?, etc., es decir, la combinación específica de los niveles de operación y algunos elementos adicionales que son un tema específico del derecho penal.

Es por eso necesario la participación de equipos multidisciplinarios de abogados y estadísticos, donde el principal beneficio será maximizar de manera eficiente las políticas públicas, optimizar los recursos del estado y avanzar en la construcción de la ciudadanía.