Conga: mecanismos formales y no formales para el diálogo social

Hoy 17 de abril del 2012 se presenta el resultado del peritaje internacional al que ha sido sometido el Estudio de Impacto Ambiental del Proyecto Conga, en Cajamarca (Perú). La presentación de este peritaje ha representado un quiebre a los procesos establecidos por el Estado en la aprobación de EIA, ya que somete a una nueva instancia no reglamentada los resultados de un estudio que ha cursado todos los caminos administrativos formales, al margen de su contenido.

Esta salida “creativa” del Estado se ha presentado ante la fuerte oposición al proyecto de la población cajamarquina, apoyada por el Presidente Regional Gregorio Santos, quien lidera las protestas.
Cuando se establecieron las respectivas mesas de diálogo (ojo, tampoco es un mecanismo formal) entre los actores del conflicto y los representantes del Estado central, éstos últimos cuestionaban la participación de dirigentes sociales en las mesas, ya que sostenían que a dichos dirigentes no los ha elegido nadie, a diferencia del representante regional. Obviamente era un argumento ad hominen (se ataca a la persona y no a los argumentos que esta sostiene) que buscaba restarle legitimidad al reclamo pero no era muy conveniente, debido a que el mecanismo de mesas de concertación y/o en este caso, de diálogo; supone la participación de representantes sociales de diferentes vertientes.

Actualmente el país se enfrenta ante la disquisición de si Conga va o Conga no va. Lo cierto es que se han adoptado mecanismos no formales para la negociación, y este es un hecho concreto frente a la seguidilla de conflictos sociales (alrededor de 250 al año) que enfrenta el Estado. Ciertamente estos mecanismos imponen compromisos de corto plazo que uno, no son necesariamente monitoreados en sus avances y dos, pueden no ser cumplidos.

La reflexión que se genera en este contexto es que indefectiblemente seguirá la “distorsión” entre los agentes políticos representativos o no, según la perspectiva del Estado, mientras se establezcan mecanismos no formales. De alguna forma, el Estado ya ha legitimado en los últimos años dichos mecanismos. Finalmente, más importante que la discusión en la calidad o legitimidad de los actores, la formalidad o no de los mecanismos, el debate debe centrarse en la problemática conflictiva, donde por lo visto se ha fracasado en la tarea de negociar sin anteponer los intereses de uno u otro actor, convirtiendo al Proyecto Conga en Ícaro volando frente al sol: ¿llegará a salir del complejo laberinto?
Publicado por Luis Marín Diaz

Continuar leyendo... >>

Medición de resultados y focalización de programas. A propósito de la Evaluación de Medio Término del Programa Minero de Solidaridad con el Pueblo

Acá otro desafío para los expertos en proyectos sociales. La Secretaría Técnica de la Oficina de Gestión Social del Ministerio de Energía y Minas, presentó la Evaluación de Medio Término del Programa Minero de Solidaridad con el Pueblo (PSMP) correspondiente al periodo 2007-2009. Este informe analiza los resultados de una muestra de proyectos implementados por algunas empresas integrantes del PSMP, en términos de eficiencia y calidad de gasto.

El informe en mención recoge evidencia de una muestra de seis empresas cuyo aporte representa el 75% de los aportes voluntarios al PMSP (Compañía Minera Antamina S.A, Sociedad Minera Cerro Verde S.A.A, Minera Yanacocha, Southern Perú, Compañía Minera Milpo S.A.A y Compañía Minera Condestable S.A) . Cabe recordar que el Programa Minero de Solidaridad con el Pueblo (PMSP), creado mediante el D.S. N° 071-2006-EM2, es un compromiso de aporte económico, voluntario, extraordinario y temporal celebrado entre empresas mineras, el Ministerio de Energía y Minas y el Ministerio de Economía y Finanzas. El propósito del PMSP es utilizar los recursos de los fondos privados, provenientes de los respectivos aportes voluntarias anuales de 40 empresas suscriptas en el programa, en rubros específicos como nutrición, alimentación, educación, salud, desarrollo de capacidades, infraestructura, entre otros.

De las conclusiones del informe se evidencia que es débil la focalización geográfica del PSMP en los quintiles de mayor pobreza. Dentro de la muestra analizada, de los 180 distritos considerados beneficiarios de los aportes del PMSP, solamente 38 están considerados en los quintiles de mayor pobreza. Esto pone en entredicho que los distritos con riqueza minera encabezan el ranking de los más pobres.

De las seis empresas que comprenden la muestra, Compañia Minera Milpo focaliza sus intervenciones en los distritos más pobres de su zona de atención. En cambio, los distritos considerados como zona de atención de las empresas Cerro Verde y Condestable, no están clasificados dentro de los distritos de mayor pobreza, al contrario corresponden al quintil de pobreza distrital menos pobre.

Por ende, es prioridad una mayor focalización geográfica de los proyectos para atender a las zonas consideradas de mayor pobreza.

Para analizar la eficiencia del PMSP en cuanto a cobertura se utilizó el mapa de pobreza distrital 2007 del INEI.

Por otro lado, según el Convenio del PSMP cada empresa minera deberá levantar una línea de base socioeconómica desde el inicio de su intervención social, con el afán de medir el nivel de avance de los programas y proyectos implementados. Los informe publicados por el MEM dan cuenta que 32 empresas de las 40 cumplieron con elaborar una línea de base. En la mayoría de casos las empresas han levantado información a nivel de proyecto, lo cual se traduce en una canasta amplia y diversa de indicadores.

A la fecha, a solo cinco años de gestión del PMSP, con excepción de Antamina, Yanacocha y Barrick, no se realizado los estudios de evaluación de Impacto de Medio Término, tal como lo establece el convenio.

De las conclusiones de la Evaluación de Medio Término, se evidencia la carencia de indicadores y metas al 2011 que permitan dimensionar su impacto al término del programa. En consecuencia, se precisa definir una serie focalizada de indicadores básicos de impacto y una metodología común, que permitan evaluar la pertinencia y sostenibilidad de los proyectos, así como cuantificar los alcances del PMSP.

La inversión minera superó los 6 mil millones de dólares en el 2011. A pesar de los conflictos sociales, la tendencia a crecer en el rubro minero se mantiene solida para el año 2012, por ende, es menester el diseño de programas de responsabilidad social sobre la base de amplios y rigurosos sistemas de medición de resultados y focalización de programas. Esfuerzos que permitan afianzar la sociedad entre el desarrollo de la minería con el crecimiento económico y social de las comunidades cercanas a sus yacimientos.

Escrito por José Carlos Quispe Sandoval
jcquispe@socialconsultores.com











Continuar leyendo... >>

La clave de todo negocio exitoso. A proposito de la excelencia en el servicio y otros tips



La clave de todo negocio exitoso, desde la reina del anticucho, Doña Grimanesa Vargas o de la extinta y recordada Teresa Izquierdo Gonzales, por mencionar algunos emblemáticos casos, radican su éxito en descifrar, intimar y canalizar su mercado objetivo, desarrollar y comunicar una posición única y construir diferenciación en el servicio. La estrategia a seguir, según las tres estrategias de posicionamiento de Michael Treacy y Fred Wiersema[1], basadas en tres disciplinas de valor, se sitúan en el impulso de la calidad del servicio a niveles superiores, a partir de la excelencia operativa, liderazgo de producto, sin desatender la intimidad con el cliente.
Conforme a Michael Treacy y Fred Wiersema, los negocios excelentes proporcionan una combinación de calidad, precio y facilidad de compra extraordinaria y su distinción es garantizar servicio sin reveses.

El factor clave del negocio, entonces, es la excelencia en el servicio. En ese sentido, no es suficiente con conocer que una estrategia de servicio pone énfasis en la calidad. Para identificar la estrategia es preciso contestar tres preguntas fundamentales:

¿Cuáles atributos del servicio son los más importantes para nuestro mercado objetivo?
¿En cuales atributos importantes del servicio es más frágil la competencia?
Y finalmente, ¿Cuáles son las capacidades actuales y potenciales de nuestra empresa en materia de servicio?
Según Leonard L. Berry[2], “Sin las voces de los clientes sirviendo de guía para la estrategia de calidad de servicio, lo máximo a que se puede aspirar es a mejorar apenas marginalmente”. Los líderes en servicio ven en la calidad de éste su plataforma para competir. Cumplir las especificaciones de la empresa no es calidad, pues es el cliente el que los define. Calidad es cumplir con las especificaciones de los clientes. Por consiguiente, las empresas que conocen más íntimamente a sus clientes son más rentables que sus competidores. Esto es porque estas compañías le dan a sus clientes exactamente lo que quieren y piden.
Si su cliente no está satisfecho dejará de hacer negocios con usted. Todo lo que usted haga para alcanzar una excelente calidad y servicio no importa si no trabaja para satisfacer a su cliente. El servicio extraordinario es cumplir con la promesa de servicio, organizarse para prestar un servicio extraordinario, abrazar la tecnología, evaluar el desempeño y recompensar la excelencia. Consecuentemente, un sistema de información de la calidad del servicio y satisfacción de nuestros clientes nos permitirá procesar, almacenar y distribuir información para apoyar la toma de decisiones, control, coordinación y generación de valor de la empresa.
En síntesis, si deseamos tener un negocio exitoso, necesitamos obtener una ventaja competitiva desde el desarrollo de un liderazgo en servicio, basado en dos aspectos cardinales: en construir un sistema de información de la calidad del servicio y crear una estrategia de servicio excelente.
A todo esto recuerdo la última feria del libro, me acompaño mi otrora y entrañable amiga, Katherine Del Pilar Ramirez, donde tuvimos la suerte de encontrarnos con Javier Wong, un cevichero de culto. Como leí en el blog “Cucharas Bravas”, Javier Wong se convirtió en sinónimo de cebiche. Los que conocen su restaurant, el Chez Wong, prepara los platos a vista del comensal. La honestidad es una de sus principales características. Como bien menciona en su crónica "El mejor ceviche del mundo", Mariela Pastor: “Un metro cuadrado. Un cuchillo. Un lenguado. Y creatividad. Estos son los únicos ingredientes necesarios para que Javier Wong se pare frente a su mesa de trabajo y nos prepare el mejor cebiche del mundo, como bien lo reconoció el diario inglés “The Guardian” en el 2009”.

Pero no necesitamos como soporte las conclusiones obtenidas de costosas y complejas investigación de mercado realizado con el objetivo de identificar los sectores del mercado meta y determinar el posicionamiento de nuestros negocios. En otro post volveré con algunos tips de investigación comercial relativamente baratas y fácilmente accesible. Hasta la próxima amigos y no olviden visitar estos templos y acordarse esa frase enorme de la guapísima Isabel Allende, de su libro “Cuentos, recetas y otros afrodisiacos”, no se puede separar el erotismo de la comida. Saludos.

Escrito por José Carlos Quispe Sandoval



[1] Michael Treacy y Fred Wiersema, La disciplina de los lideres de mercado, Colombia, Ed. Norma, 1995.
[2] Leonard Berry, ¡Un buen servicio ya no basta! Cuatro principios del servicio excepcional al cliente, Bogota, Ed. Norma, 1996.

Continuar leyendo... >>

Algunas notas acerca del Atlas.ti




Algunas notas acerca del Atlas.ti

Atlas.ti es una herramienta informática que tiene como propósito agilizar el análisis de datos cualitativos, principalmente de grandes volúmenes de datos textuales, de sonido, de imagen o video, es decir, el programa no analiza, sino es una herramienta que facilita las tareas de sistematización, procesamiento e interpretación del investigador.
Estas tareas comprenden por ejemplo: la reducción de datos a partir de la creación de citas y códigos, establecer comentarios u obtener patrones a partir de los datos.
Los datos cualitativos provienen de entrevistas en profundidad, grupos focales, discursos, fotografías, videos y sonido. El análisis de este tipo de datos por el programa comprende dos niveles:
El Nivel Textual supone la reducción de datos a partir de la creación de citas y códigos (abreviación aplicada a una frase, párrafos, etc.) que posteriormente relacionaremos entre si y representaremos gráficamente.
Posteriormente, el Nivel Conceptual tiene como el establecimiento de relaciones entre los distintos componentes del programa y la elaboración de modelos mediante la representación grafica. En este nivel podemos visualizar patrones a partir de los datos y obtener conclusiones.
En otras palabras, el trabajo con Atlas.ti se diferencia del trabajo convencional del investigador porque posibilita un mayor nivel de exhaustividad, de sistematización, categorización, comparación, etc. de los datos cualitativos.

¿Cuáles son los componentes del programa?

El archivo del programa se denomina Unidad Hermenéutica, es el contenedor que agrupa los distintos componentes del programa Es decir, es el equivalente a un fichero “.doc” (documento de texto), “.ppt” (presentación), o “.xls” (hoja de cálculo). En nuestro caso, el resultado será un archivo “.hpr”.
Los componentes principales del programa son los siguientes:

1. Documentos Primarios: son la base del análisis, es decir, los “datos brutos”, pueden ser documentos en texto, imágenes, sonido y videos.

2. Citas (Quotations): las citas son fragmentos o segmentos significativos de los documentos primarios.

3. Códigos (Codes): resúmenes o agrupaciones de las citas.

4. Anotaciones (Memos): comentarios realizados durante el proceso de análisis.

5. Networks: permite representar información compleja mediante representaciones gráficas de las relaciones o vínculos de los diferentes componentes del programa.

¿Cuáles son las pautas metodológicas de análisis de datos cualitativos con el Atlas.ti?
La paradoja de la investigación cualitativa es la cantidad de información obtenida de escasas fuentes. Como bien afirma Fernandez Nuñez, Lissethe, existes multiplicidad de fuentes y forma de datos (entrevistas, etnografías, registros o diarios, películas, videos, etc.

Para colmo de males, las investigaciones cualitativas generan buena cantidad de hojas escritas, por ejemplo, transcripciones, por ende el análisis de datos cualitativos ameritan mucho tiempo.

Como se realiza el análisis de datos cualitativos

Diferentes autores coinciden en los siguiente (Alvarez, Gayou, 2005; Miles y Huberman, 1994, etc):

Las pautas del análisis con el Atlas.ti comprenden:

a) Obtener la información, es decir, el registro electrónico (grabación en cassettes o formato digital, video o notas tomadas por el investigador. Toda la información obtenida de los instrumentos de recojo de información aplicados (entrevistas, observaciones, focus group, etc).será transcrita textualmente
b) Codificar la información. Finalmente, los códigos son etiquetas que asignan unidades de significado a la información reunida durante la investigación. La codificación, finalmente, agrupa la información relevante en categorías, conceptos o temas descubiertos por el investigador. En este momento es sugerente la lectura concienzuda de la información con el fin de establecer patrones relevantes en el discurso, de agrupar segmentos relacionados a las preguntas de investigación, supuestos, hipótesis. Esta etapa de agrupamiento y reducción de los datos sientan las bases para elaborara las conclusiones.
c) Integrar la información. Podemos organizar los códigos y relacionarlos con otros, a partir del marco teórico de la investigación. Es decir, cito nuevamente a Fernandez Nuñez, Lissethe, primero, el material se analiza, examina y compara dentro de cada categoría. Inmediatamente, se compara las categorías buscando vínculos l lógicos entres si. El programa posee un editor de mapas conceptuales.
d) Finalmente, los resultados del análisis se delimitan y textualizan.

Para concluir, la codificación es todo un reto, implica un trabajo intelectual arduo y mecánico con miras a encontrar patrones, etiquetar temas y desarrollar sistema de categorías, es encontrar lo significativo de las entrevistas u otros documentos, descubrir patrones y transformarlos en categorías. El desafío radica en construir modelos conceptuales (relaciones de códigos). Clasificar y codificar datos cualitativos, esta fase descriptiva da paso a la fase interpretativa, donde se extrae lo significativo de los datos recabados, se construyen categorías y, se genera teoría.


Por José Carlos Quispe Sandoval jcquispe@socialconsultores.com


Fuente: ¿Cómo análizar datos cualitativos?

Fernandez Núnez, Lisssette. Institut de Ciéncies de L Educació. Universitat de Barcelona.

Continuar leyendo... >>

Curso Taller de Análisis de Datos con SPSS

Social Consultores tiene el agrado de invitarlos a participar del Curso Taller de Análisis de Datos con SPSS.

El Curso Taller de Análisis de Datos con SPSS tiene como propósito ofrecer al usuario, a través de casos prácticos, los conceptos teóricos y metodológicos de análisis e interpretación de datos cuantitativos a partir del uso del software estadístico SPSS.

Los objetivos del taller se resumen en dos aspectos básicos: a) discutir aspectos metodológicos del análisis de datos cuantitativos y, b) Manejar distintas técnicas estadísticas descriptivas e inferenciales de análisis de datos con SPSS.

Los contenidos del Taller son:
1) Introducción al análisis de datos cuantitativos (teoría y conceptos): Población y muestra. Conceptos, variables e indicadores. El problema de la medición.
2) Análisis de datos con SPSS (síntesis metodológica).
3) Análisis estadístico descriptivo. Medidas de tendencia central, de posición y de dispersión. El problema de representatividad de la media. Análisis de la asociación entre dos variables.
4) El proceso de análisis estadístico y la presentación gráfica de resultados.
5) Análisis estadístico inferencial. Prueba de hipótesis. Análisis de la varianza. Regresión y correlación lineal. Análisis de contingencia.
El Curso Taller de Análisis de datos con SPSS está programado para los días 12, 19, 26 de marzo y 02 de abril en horario de las 09:00 a 12:00 am.

El Curso Taller de Análisis de Datos con SPSS para fines corporativos se ofrece al siguiente costo:
Matriculados antes del 05 de Marzo à S/. 160.00 c/u
Matriculados después del 05 de Marzo à S/. 200.00 c/u

La inscripción al taller incluye materiales y certificación. El Taller se llevará a cabo en las instalaciones de la ONG Alternativa, sito en Jr. Emetéreo Pérez 348 Urb. Ingeniería San Martín de Porres (Ref.: entre la cuadra 3 y 4 de Av. Habich).

La forma de pago es a través de depósito en cuenta Ahorro Soles del Banco de Crédito del Perú:
Número de cuenta: 19319762047062
Código de Cuenta Interbancario (CCI): 00219311976204706218
A nombre de Luis Alberto Marín Diaz, Gerente de Proyectos de Social Consultores.

El Curso Taller contará con la destacada colaboración del docente universitario Lic. Ernesto Zeña Raya, especialista en análisis de datos y uso de diversos software estadísticos.

Social Consultores ofrece la realización del Curso Taller en las instalaciones de su institución o empresa, facilitando de esta forma el acceso a la capacitación de personal con poca disponibilidad de tiempo y alta carga laboral.

Contáctenos para mayor información al email informe@socialconsultores.com




Continuar leyendo... >>

Taller de Análisis de Datos con Atlas.ti


Social Consultores se complace en invitarlos a participar en el Taller de Análisis de Datos con Atlas.ti.

Este Taller tiene como propósito ofrecer al usuario a través de casos prácticos, los conceptos teóricos y metodológicos del análisis de datos cualitativos a partir del uso del software Atlas.ti, uno de los programas informáticos más completos y avanzados disponibles en el mercado.

Este taller intensivo permitirá a los participantes desarrollar las siguientes competencias:

o Comprender los aspectos metodológicos esenciales del análisis de datos cualitativos para su aplicación práctica.
o Desarrollar con el software Atlas.ti el análisis de los datos de un proyecto de investigación de su interés.

El taller empieza con una introducción al análisis de datos cualitativos, recorreremos el entorno o interfaz de usuario del programa y desarrollaremos la codificación, construcción de redes, recuperación de datos y otras opciones más avanzadas.

Los contenidos del taller son los siguientes:

o Los datos cualitativos y su análisis (síntesis metodológica)
o Introducción al entorno del programa Atlas.ti: componentes, creación de un nuevo proyecto, la preparación de los documentos primarios, codificación y memos.
o La construcción de teoría, la creación de Networks (redes y nodos), familias, vínculos.
o Herramientas de exploración, consulta e informes.
o Ejercicios prácticos.

El taller forma parte del programa de capacitación de investigación aplicada de Social Consultores.

Las sesiones del taller están programadas para los días 14, 16 y 18 de setiembre.

El taller se llevará a cabo en la sala de cómputo del centro cultural CAFAE-SE. Av. Arequipa 2985, San Isidro.

El software Atlas.ti le permitirá organizar y analizar enormes volúmenes de datos de texto, gráficos, audio y video, en un entorno dinámico y sencillo.

El costo del taller es de 250 nuevos soles.

Mayor información AQUI

Continuar leyendo... >>

Pautas para la preparación de la informacion para el análisis

Obtenida la información en campo es forzoso preparar los datos para su análisis. En este post desarrollaremos rápidamente algunas pautas de preparación de la información como: codificación, creación del fichero, consistencia y ponderación.

Codificación.

Una vez recolectados los datos, es pertinente disponer de códigos a las categorías o alternativas de respuesta de las preguntas del instrumento de medición. Codificadas las categorías, se procede a elaborar el libro de códigos. Volveremos en otro post con las pautas del diseño del libro de códigos.

La codificación puede elaborarse antes o después de levantar la información en campo. La codificación puede realizarse al momento del diseño del cuestionario, si las categorías fueron precodificadas y el instrumento de medición carece de preguntas abiertas.

Al contrario, la postcodificación consiste en establecer un código a cada una de las posibles respuestas dispuestas a ser mencionadas al momento de la entrevista en las preguntas abiertas del cuestionario. Por ende, la postcodificación se realiza obtenida la totalidad de la información.

Creación del fichero de datos.

Los resultados del instrumento de medición se trasladan a una matriz o base de datos, usando como soporte el libro de códigos. Sin el libro de códigos, no se puede codificar y una matriz de base de datos carece de significado. La creación del fichero de datos involucra dos etapas: la grabación y la definición del fichero.

A su vez, la grabación del fichero puede cometerse de dos formas: manual, es decir, utilizando el teclado del ordenador, o mecánica, con el uso de escanners ópticos. Los escanners ópticos leen los códigos y los transcriben de manera simultánea.

La definición del fichero de datos posee protocolos afines a cada paquete estadístico. Estos protocolos se desarrollarán en detalle en próximos entregas.

Análisis de consistencia.

Obtenida la información en campo y finalizada la grabación y definición del fichero de datos, es forzoso establecer pautas o procedimientos de control de calidad de los datos previos a su análisis. Acá rápidamente algunas notas acerca de la consistencia de datos cuantitativos.

Definitivamente la consistencia de datos resulta un momento imprescindible, complejo y laborioso del proceso de preparación de la información para el análisis.

El propósito de la consistencia de datos es garantizar la calidad de la información. La consistencia de datos se realiza en dos momentos o fases: en un primer momento, finalizada la grabación y definición del fichero de datos. En un segundo momento, mediante la revisión sistemática de cada una de las variables y su relación con otras.

Diseñado el fichero de datos, es decir, el diseño de las variables del estudio y su formato, la consistencia comienza con la aplicación de controles de filtros y cuotas.

Resulta preciso pasar por un control de filtros de selección del universo objeto de estudio con el propósito de verificar que la totalidad de los encuestados pertenecen al universo objetivo.

Asimismo, los datos deberán pasar por un control de cuotas, con el fin de verificar que la composición de la muestra obtenida concuerda con el diseño muestral.

En un segundo momento, corresponde determinar controles a las variables, mediante procedimiento de estadística descriptiva, distribuciones de frecuencia de todas las variables y sus relaciones entre ellas.

Estos procedimientos o protocolos son básicos dentro del proceso previo al análisis. Es menester llevar a cabo esta etapa de consistencia de manera rigurosa y sistemática. Finalizadas todas estas etapas, la información se encontrará expedita para su análisis.

Ponderación de la muestra.

Finalmente, la muestra obtenida en campo debe ser proporcional a la distribución del universo o población. Por tanto, antes de iniciar el análisis de los datos, debemos verificar que cada individuo o persona entrevistada de la muestra posea un peso proporcional a la distribución de la población. La técnica de asignar un peso a cada individuo o persona entrevistada se denomina ponderación de la muestra.

En entregas posteriores desarrollaremos con mayor detalle estas pautas de preparación de la información para el análisis. En la primera sesión del taller, a modo de introducción, volveremos a discutir este y otros apuntes, imprescindible para el éxito de o fracaso de cualquier investigación. Hasta entonces.

Por José Carlos Quispe Sandoval
jcquispe@socialconsultores.com

Continuar leyendo... >>


 
Blog implementado por Gurami