DIPLOMADO EN MONITOREO Y EVALUACI - PowerPoint PPT Presentation

1 / 91
About This Presentation
Title:

DIPLOMADO EN MONITOREO Y EVALUACI

Description:

Existen diferentes tipos de evaluaci n, que permiten, en cierta medida dependiendo de su alcance, responder a determinadas preguntas sobre el programa o pol tica ... – PowerPoint PPT presentation

Number of Views:114
Avg rating:3.0/5.0
Slides: 92
Provided by: virtualU
Category:

less

Transcript and Presenter's Notes

Title: DIPLOMADO EN MONITOREO Y EVALUACI


1
DIPLOMADO EN MONITOREO Y EVALUACIÓN DE POLÍTICAS
PÚBLICASMÓDULO EVALUACIONES
  • MAURICIO AGUILAR
  • Noviembre de 2011

2
SESIÓN II
  • TIPOS DE EVALUACIÓN

3
Contenido
I. Tipologías de evaluaciones
II. Definición del alcance de la evaluación
III. Pasos para definir el alcance de la
evaluación
IV. Caso de estudio
V. Metodologías de evaluación
4
I. Tipologías de evaluaciones
  • Existen diferentes tipos de evaluación, que
    permiten, en cierta medida dependiendo de su
    alcance, responder a determinadas preguntas sobre
    el programa o política evaluados.

TIEMPO
La que se ha venido realizando con mayor
frecuencia en la DEPP es la evaluación expost, es
decir, la evaluación que se hace una vez
implementado el proyecto para determinar sus
efectos.
ANTES
DURANTE
DESPUÉS
5
I. Tipologías de evaluaciones
  • Una segunda categoría se pueden clasificar las
    evaluaciones por su alcance, según las preguntas
    que se quieran responder acerca del programa, se
    busca el tipo de evaluación que puede ayudar a
    resolver estas preguntas.
  • También se pueden categorizar las evaluaciones
    según el sujeto que las desarrolla. En este caso
    pueden ser autoevaluaciones, evaluaciones
    externas o evaluaciones participativas.

6
I. Tipologías de evaluaciones
Según el tiempo
Ex ante
Análisis de implementación de programa para
determinar posibles efectos. Débil ante la
incertidumbre, no provee herramientas de ajuste
durante ejecución del programa y de
retroalimentación.
Dinámica
Es permanente, sirve de mecanismo de ajuste al
programa controlando su desarrollo. Es costosa.
Intermedia
Análisis después de cierto nivel de avance del
programa. Resultados de corto plazo
Ex post
Se realiza después de ejecución del programa para
determinar efectos del programa. Escaso margen
para proceso de ajuste del programa.
7
El programa es necesario?
En qué van los Indicadores respecto a la meta?
Qué porcentaje de cada peso invertido llega al
beneficiario final?
Cómo son el diseño, manejo operativo,
estructura organizacional, el manejo financiero,
las actividades de SE del programa?
Cuáles son los resultados críticos que el
programa trata de lograr? Qué efectos de corto
y mediano plazo generó el programa?
Evaluar necesidad del programa
Evaluación Ejecutiva
Resultados
Monitoreo
PETS
Evaluación costo-beneficio
Tiempo de Implementación del programa
Evaluación costo-beneficio
Marco Lógico
Operaciones
Medio Término
Productos
Impacto
Cuál es el fin, propósito, componentes y
actividades del programa?
Son eficientes las operaciones del programa? El
programa es capaz de producir lo deseado?
Cómo van el diseño, cobertura, enfoque,
asignación de recursos del programa?
Cuáles fueron los productos generados? Están de
acuerdo con los objetivos y las metas planeadas
inicialmente?
Cuál fue el impacto del programa en los
beneficiarios? De qué magnitud fue? Qué tanto
se puede atribuir al programa y qué tanto a
otros factores?
Planeación y Diseño
Implementación
Entrega de productos y servicios
8
I. Tipologías de evaluaciones
Según el Alcance
Seguimiento a procesos
Provee información sobre el progreso de un
programa para comparar los avances logrados
frente a las metas. No examina la causalidad
entre las intervenciones y sus efectos.
Operación - Gestión
Medición del avance de ejecución de actividades y
presupuesto, diseño, manejo operativo. No permite
tener conclusiones a nivel de efectos e impactos
a través de una metodología cuantitativa robusta.
Productos y Resultados
Determina qué productos se desarrollaron y qué
resultados se generaron. Costosa si no se
implementan mecanismos apropiados desde el
principio.
Impacto
Determina la causalidad entre la intervención y
el resultado final de los beneficiarios. Es una
herramienta muy costosa por la necesidad en la
mayoría de los casos de micro datos.
9
I. Tipologías de evaluaciones
Según los Actores
Autoevaluación
Los actores de un programa o proyecto evalúan su
propio trabajo ? Herramienta de gestión.. A pesar
del profundo conocimiento del proyecto hay un
alto grado de subjetividad que sesga los
resultados.
Externa
Expertos ajenos al proyecto examinan aspectos del
programa ? Herramienta de control. Puede
desconocer aspectos internos, de implementación
del Programa.
Participativa
Valora la percepción como insumo para identificar
el resultado. Se pierde rigurosidad técnica.
10
II. Definición del alcance de la evaluación
  • En el proceso de identificar los objetivos, metas
    e información necesaria del programa a evaluar,
    se recomienda utilizar una herramienta de tipo
    marco lógico.
  • La cadena de resultados puede ser una de las
    herramientas a utilizar para entender la lógica
    con la que se creó e implementó el programa y con
    base en esta información escoger el tipo de
    evaluación necesario.

11
II. Definición del alcance de la evaluación
  • La secuencia causal de una intervención para el
    desarrollo que estipula la secuencia necesaria
    para lograr los objetivos deseados, comenzando
    con los insumos, pasando por las actividades y
    los productos, y culminando en el efecto directo
    y el impacto
  • (OECD, 2002).

Insumos
Procesos
Productos
Resultados
Impacto
12
II. Definición del alcance de la evaluación
  • La definición de la cadena de resultados (o
    cadena de valor) para la evaluación de un
    proyecto, programa o política tiene varios
    beneficios
  •  
  • Ayuda a construir un entendimiento común del
    programa y de las expectativas entre las partes
    interesadas en un lenguaje común.
  • Provee una base de conocimiento para la
    evaluación.
  • Identifica los supuestos que se están haciendo,
    lo que puede convertirse en una base para
    identificar las preguntas de evaluación y los
    conectores lógicos de acción.
  • Identifica las variables de intervención, a las
    cuales se hará seguimiento con la evaluación

13
II. Definición del alcance de la evaluación
14
II. Definición del alcance de la evaluación
Insumos
Procesos
Productos
Resultados
Impacto
  • Recurso humano (grupo de evaluaciones
    focalizadas)
  • Recursos financieras (Crédito ME, Entidades)
  • Recurso Humano (DNP, Entidades)

15
II. Definición del alcance de la evaluación
Insumos
Procesos
Productos
Resultados
Impacto
  • Investigar el diseño y operación del programa,
    proyecto o política.
  • Interactuar con actores alrededor de la política.
  • Identificar problemas, preguntas e hipótesis de
    evaluación.
  • Inventariar información disponible.
  • Diseñar estrategia de evaluación.
  • Diseñar TdR.
  • Seleccionar consultor.
  • Realizar el acompañamiento técnico al desarrollo
    de la evaluación.
  • Difundir y socializar resultados.
  • Promover el uso de los resultados.

16
II. Definición del alcance de la evaluación
Insumos
Procesos
Productos
Resultados
Impacto
  • Evaluaciones metodológicamente robustas, útiles
    para la toma de decisiones en términos de las
    preguntas de evaluación que responden.
  • Información y evidencia sobre el funcionamiento,
    operación y efectividad de las políticas.
  • Recomendaciones concretas para los programas,
    proyectos o políticas evaluadas.

17
II. Definición del alcance de la evaluación
Insumos
Procesos
Productos
Resultados
Impacto
  • Conocimiento de los resultados de las
    evaluaciones por parte de los tomadores de
    decisión.
  • Conocimiento de los resultados de las
    evaluaciones por parte de otros actores asociados
    a la política evaluada.
  • Conocimiento de los resultados de las
    evaluaciones por parte de la población y la
    sociedad en general.
  • Legitimidad de las evaluaciones .
  • Mayor nivel técnico en las discusiones de
    decisión de política pública (uso de la
    evidencia).

18
II. Definición del alcance de la evaluación
Insumos
Procesos
Productos
Resultados
Impacto
  • Políticas públicas más eficaces.
  • Políticas públicas más eficientes.
  • Políticas públicas más efectivas.

19
III. Pasos para definir el alcance de la
evaluación
20
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • Se toma la decisión de evaluar un programa cuando
    se quieren tomar medidas, entre otras, acerca
    de
  • Diseñar políticas
  • Justificar los gastos
  • Determinar si el programa está siendo efectivo
  • Mejorar la entrega de los servicios que provee el
    programa
  • Ampliar o hacer una réplica del programa en otras
    zonas u otros países

21
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • La cadena de valor o resultados es una
    herramienta diseñada para ayudar a los
    evaluadores y formuladores de política a
    representar los procesos de la intervención.
  • En este caso, es útil para el diseño del alcance
    de una evaluación pues se retoma la cadena de
    valor como una herramienta que muestra la
    secuencia causal de los procesos que se
    encuentran dentro de la intervención, el programa
    o política.
  • Actores claves
  • El cliente principal de la evaluación
  • Los actores involucrados

22
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • El evaluador debe tener claro el propósito y los
    objetivos del programa
  • Cuál es la lógica o la cadena de resultados del
    proyecto, programa o política?
  • Cuáles son los supuestos clave que se hicieron
    en la intervención?
  • Revisión de la bibliografía? Documentos teóricos
    relacionados con la intervención y evaluaciones
    pasadas de temas similares.
  • Realizar un proceso de diagramación de la lógica
    del programa y los supuestos claves en los cuales
    se sustenta el programa.
  • Situarse en la cadena de valor
  • Contrastar la dinámica de la política pública con
    la realidad.
  •  

23
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • La cadena de entrega como el conjunto de actores
    (personas o instituciones), y las relaciones
    entre ellos, a través de la cuales una actividad
    o un proceso de un sistema dado será
    implementado.
  • Cómo, y a través de quién, ocurre una actividad
    o un proceso del sistema?
  • La característica importante de la cadena de
    entrega es que se utiliza para identificar los
    obstáculos que potencialmente podrían incidir en
    la entrega de los bienes y servicios de la
    intervención.
  •  

24
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • El mapeo de información en esta etapa de
    determinar el alcance de la evaluación, se
    refiere a entender un poco más el contexto en el
    cual se desarrolla el programa.
  • Cómo funciona el programa, su diseño, sus
    objetivos?
  • Cómo funciona el sector?
  • Cómo funcionan los programas con este tipo de
    objetivos en Colombia? En el contexto
    internacional?

Archivos administrativos del Programa
25
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • Los pasos anteriores deben contribuir a definir
    la hipótesis principal de la evaluación. Esta
    hipótesis es esencial para orientar el proceso y
    permite dirigir el proceso para llegar a las
    conclusiones concretas de la evaluación.
  • La hipótesis bien formulada aclara las variables
    que se van a analizar, las relaciones entre
    ellas, y plantea los objetivos del estudio.
  • Una hipótesis bien planteada es esencial para
    definir los objetivos, identificar las
    necesidades de información, definir los
    indicadores de resultados y efectos y crear una
    estrategia de evaluación sólida que proporcione
    respuestas a las preguntas planteadas.

26
III. Pasos para definir el alcance de la
evaluación
Identificar el Programa Cadena de Resultados Cadena de Entrega Mapeo de información Hipótesis Alcance
  • A partir de la hipótesis, del análisis de actores
    y de la cadena de valor, se determinan las
    principales preguntas a resolver por parte de la
    evaluación
  • Son preguntas de gestión del programa?
  • Son preguntas de política?
  • Son preguntas de operatividad?
  • Son preguntas del diseño del programa?
  • Son preguntas de la implementación?
  • Son preguntas de los resultados del programa?
  • Son preguntas del impacto del programa?

27
El Proceso de Evaluación
IV. Caso de estudio
28
El Proceso de Evaluación
IV. Caso de estudio
29
El Proceso de Evaluación
IV. Caso de estudio
30
Taller en grupo La Evaluación
IV. Caso de estudio
  • Escoger un programa o proyecto que necesite una
    evaluación.
  • Identificar Objetivo del Programa
  • Principales componentes

31
Diseño
IV. Caso de estudio
32
Modelos y Preguntas
IV. Caso de estudio
  • Objetivos
  • Establecer un marco para comprender el modelo de
    resultados del programa
  • Discutir los factores que influyen en los tipos
    de preguntas de evaluación de programas
  • Identificar los tipos de preguntas para la
    evaluación

33
Los modelos
IV. Caso de estudio
  • Son una abstracción simplificada del programa
    (entender muy bien el programa o proyecto antes
    de planear o diseñar la evaluación)
  • Muestran las partes principales, o elementos, del
    programa y sus relaciones
  • Ayudan a
  • Visualizar un programa en un contexto
  • Aclarar los objetivos del programa
  • Aclarar los insumos del programa
  • Identificar la relación entre los componentes del
    programa
  • Pensar de manera más analítica las causas y
    efectos del programa
  • Identificar los supuestos claves de la evaluación
    del programa

34
La Cadena de Valor
IV. Caso de estudio
  • Es la secuencia causal de una intervención para
    lograr los objetivos deseados, comenzando con los
    insumos, pasando por las actividades y los
    productos, y culminando en el efecto directo y el
    impacto
  • (OECD, 2002).

35
Taller en grupo Cadena de Valor
IV. Caso de estudio
  • Al programa escogido defina cada uno de los
    indicadores relacionados con los eslabones de la
    cadena de valor

36
Preguntas
IV. Caso de estudio
  • Cuáles son las metas y objetivos del programa?
  • Quiénes son los probables usuarios del programa
    y en qué están interesados?
  • Cuál es la importancia relativa de las posibles
    preguntas?
  • Cuál es la facilidad de obtener respuestas
    correctas?, los recursos requeridos y la
    información disponible con que se pueden
    responder las posibles preguntas?
  • Las preguntas se definen
  • De lo general a lo específico.
  • De preguntas amplias hasta sub-preguntas para
    poderlas responder

37
Taller en grupo Preguntas
IV. Caso de estudio
USTED DÓNDE VIVE?
38
Tipos de Preguntas
IV. Caso de estudio
39
Taller en grupo Matriz de Diseño
IV. Caso de estudio
Vamos a ir identificando los insumos para
construir la matriz de diseño de su proyecto de
evaluación
40
Estudio de Caso Familias en Acción Matriz de
Diseño de una Evaluación
Preguntas Sub-Preguntas Tipo Alcance Medidas Fuente de Datos Muestra
Aumentar asistencia escolar? Asistencia en primaria aumentó? Asistencia en secundaria aumentó? Disminuyó participación laboral de los niños?
Mejorar condiciones nutricionales de niños menores? La composición del consumo de alimentos de niños menores de 7 años es mejor? Disminuyó la desnutrición?
Mejorar estado de salud de los niños? Se vacunaron más niños? Evolución de crecimiento y desarrollo niños? El estado de salud de los niños mejoró?
41
Preguntas Sub-Preguntas Recolección de Datos Análisis de Datos Comentarios
Aumentar asistencia escolar? Asistencia en primaria aumentó? Asistencia en secundaria aumentó? Disminuyó participación laboral de los niños?
Mejorar condiciones nutricionales de niños menores? La composición del consumo de alimentos de niños menores de 2 años es mejor? Niños de 2 a 6 años?
Mejorar condiciones de salud de los niños? Se vacunaron más niños? Evolución de crecimiento y desarrollo niños? El estado de salud de los niños mejoró?
42
Taller en grupo Modelos y Preguntas
IV. Caso de estudio
  1. Identificar la relación entre el programa y los
    resultados
  2. Identificar qué se quiere medir
  3. Formular preguntas y sub-preguntas
  4. Qué tipo de preguntas son?

43
Diseño
IV. Caso de estudio
44
Diseño de evaluación
IV. Caso de estudio
  • Objetivos
  • Entender la importancia del diseño en el proceso
    de responder preguntas
  • Conocer opciones de diseño
  • Conocer las fortalezas y debilidades de cada
    diseño
  • Ser capaz de seleccionar el diseño más apropiado
    de acuerdo al programa a evaluar

45
Tipos de evaluaciones
IV. Caso de estudio
Insumos
Procesos
Productos
Resultados
Impactos
46
IV. Caso de estudio
Diseño de evaluación
  • Es la estrategia general de cómo se va a recoger
    y analizar sistemáticamente la información para
    responder las preguntas de investigación

47
Taller en grupo Diseño de evaluación
IV. Caso de estudio
De acuerdo a su conocimiento y a las necesidades
de información de su programa o proyecto,
cuál sería el diseño que más se ajusta a su caso
y cómo lo aplicaría, y por qué?
48
Diseño
IV. Caso de estudio
49
Medidas y Estrategia de Medición
IV. Caso de estudio
  • Objetivos
  • Familiarizarse con las medidas más comunes
  • Entender la importancia de definir términos
    claves
  • Comprender algunos temas de las medidas
  • Confianza
  • Validez
  • Precisión

50
Medidas y Estrategia de Medición
IV. Caso de estudio
  • Concepto es una construcción o idea general
  • Indicador es una palabra o frase que indica o
    representa el nivel o el grado de un fenómeno de
    interés. Representa la calidad del fenómeno para
    el cual se está intentando hacer la medición. Un
    indicador tiene una dirección, aumenta o
    disminuye
  • Medida expresa cuantitativa o cualitativamente
    cómo los datos o la información se recogen para
    asignarle valor a un indicador

51
Medidas y Estrategia de Medición
IV. Caso de estudio
  • Concepto - Salud
  • Indicador - Temperatura del cuerpo
  • Medida - Grados centígrados

52
Medidas y Estrategia de Medición
IV. Caso de estudio
  • Qué es lo que se quiere conocer?
  • Cómo se puede conocer?
  • Qué información se necesita para conocerlo?
  • Medida
  • Es la definición de un concepto de forma que
    pueda ser contado (cuantitativo) o caracterizado
    (cualitativo).
  • Medidas Comunes Frecuencias y porcentajes
    medias, medianas y modas dólares y pesos cambio
    porcentual tasas, proporciones y comparaciones
    categorías.

53
Estudio de Caso Familias en Acción
  • Fue exitoso FA en mejorar la nutrición de los
    niños?
  • Cómo se define exitoso?
  • Definir el éxito en mejorar la nutrición de los
    niños con
  • - Disminución en el porcentaje de desnutrición
    aguda (indicador peso/talla)
  • Pero es ésto un éxito? Otras
    definiciones de éxito
  • - Disminución en el porcentaje de desnutrición
    global (indicador peso/edad), ó disminución en
    el porcentaje de desnutrición crónica (indicador
    talla/edad)
  • Nueva pregunta Fue Familias en Acción exitoso
    en mejorar la nutrición de los niños disminuyendo
    los porcentajes de desnutrición aguda, global y
    crónica?

54
Taller en grupo Medidas y estra. de medición
IV. Caso de estudio
  1. Cuál es la pregunta central para su programa o
    proyecto?
  2. Qué tipo de indicadores busca calcular?

55
Diseño
IV. Caso de estudio
56
Recolección de Datos
IV. Caso de estudio
  • Objetivos
  • Dar a conocer las opciones de recolección de
    datos
  • Dar a conocer las fortalezas y debilidades de las
    diferentes formas de recolección de datos
  • Ser capaz de escoger la forma más apropiada de
    recolección de datos, dadas las circunstancias y
    restricciones

57
IV. Caso de estudio
Recolección de Datos
  • Depende de

58
Formas de Recolección de Datos
IV. Caso de estudio
  • Información de datos existentes / archivos
    (reportes, registros, bases de datos, censos,
    etc.)
  • Documentos (presupuestos, políticas y
    procedimientos, cuadros organizacionales,
    personal, etc.)
  • Observaciones (con o sin el conocimiento de los
    participantes)
  • Encuestas
  • Cuestionarios de auto reporte
  • Encuestas por correo
  • Encuestas telefónicas
  • Entrevistas / encuestas personales
  • Grupos focales / entrevistas grupales

59
IV. Caso de estudio
Recolección de Datos
  • Se debe conocer cómo se hizo la
  • Recolección de datos
  • Definición de variables
  • Precisión de los datos
  • Si se tiene que recolectar datos originales, se
    debe
  • Establecer los procedimientos a seguir
  • Mantener registros precisos de las definiciones y
    codificaciones usadas
  • Hacer ensayos y más ensayos (pruebas piloto)
  • Verificar la precisión del proceso de
    codificación y de ingreso de datos

60
IV. Caso de estudio
  • Observaciones
  • Ventajas
  • Situaciones o comportamientos verdaderos (no auto
    reportados)
  • Información actual (evita problemas de memoria)
  • Desventajas
  • Sesgos del observador
  • Problemas de codificación
  • Puede ser intensivo en mano de obra y costoso
  • Datos Disponibles
  • Ventajas
  • Generalmente es más barato y más rápido que
    recolectar los datos originales
  • Desventajas
  • No habrá disponible datos exactos que se
    necesiten
  • Puede ser difícil tener acceso a los datos
  • Puede haber errores en las bases de datos
    problemas de codificación

61
IV. Caso de estudio
Tipos de Datos
62
IV. Caso de estudio
Tipos de Datos
63
IV. Caso de estudio
64
IV. Caso de estudio
65
Grupos Focales
IV. Caso de estudio
66
IV. Caso de estudio
67
Combinaciones
IV. Caso de estudio
  • Por lo general es muy útil tener en cuenta varios
    enfoques de recolección de datos, para que de
    esta manera, las debilidades de uno sean
    compensadas con las fortalezas de otros

68
Estudio de Caso Familias en Acción
  • Estrategia de Recolección de Datos
  • Cuantitativo
  • Encuestas de hogares
  • Encuestas a instituciones educativas
  • Encuestas a instituciones de salud
  • Encuestas a encargados del programa
  • Cualitativo
  • Grupos focales
  • Esquemas participativos
  • Entrevistas semiestructuradas a autoridades de
    los municipios

69
Muestreo
IV. Caso de estudio
  • Se pueden recoger datos de toda la población?
  • - De todos los archivos, todas las calles, toda
    la gente?
  • Cuando se puede, se habla acerca de lo que es
    verdadero para toda la población
  • Pero con frecuencia esto no se puede hacer
  • - Restricciones de tiempo y costos

70
IV. Caso de estudio
Muestreo
  • Es una estrategia de recolección de datos
  • Es usada en todos los sectores
  • Ofrece eficiencia para la recolección de datos
    sobre la población
  • Permite hacer estimaciones acerca de una
    población más grande, basada en lo que se
  • aprende de un subconjunto
  • Hay dos tipos de muestreo
  • Aleatorio
  • No aleatorio

71
Conceptos del Muestreo
72
Confianza y Precisión de la Muestra
IV. Caso de estudio
  • Estadísticas estiman la probabilidad de que los
    resultados de la muestra sean representativos de
    la población como un todo
  • Qué tan confiado se quiere estar de que la
    muestra es correcta?
  • El estándar es tener un nivel del 95 de
    confianza
  • Significa que en 19 de 20 muestras se hubiesen
    encontrado resultados similares
  • Significa que se está 95 seguro de que los
    resultados de la muestra son un estimación
    correcta de la población

73
Muestreo Aleatorio
IV. Caso de estudio
  • Permite hacer inferencias sobre la población
    basadas en la muestra
  • Cada persona tiene la misma probabilidad de ser
    seleccionada
  • Ventajas
  • Elimina el sesgo de selección
  • Se puede generalizar a la población
  • Costo-efectivo
  • Reto ubicar una lista completa de la población
    total de la cual se seleccionará una muestra

74
Muestreo Aleatorio
IV. Caso de estudio
75
IV. Caso de estudio
Muestreo No Aleatorio
  • Selección no probabilística
  • Sesgos potenciales
  • Fueron las personas seleccionadas de una manera
    sesgada?
  • Son ellas sustancialmente diferentes del resto
    de la población?
  • Es importante recolectar alguna información para
    demostrar que la gente seleccionada es bastante
    similar a la población total (ej. Características
    demográficas)
  • Los resultados de muestras no probabilísticas no
    pueden ser generalizados
  • La información se debe reportar en términos de
    los entrevistados.
  • El tamaño de la muestra no es tan importante
  • Lo suficientemente grande para que parezca
    razonable

76
Tipos de Muestreo No Aleatorio
77
Taller en grupo Recolección de datos
IV. Caso de estudio
Qué tipo de recolección de datos proponen para
su proyecto? Cuantitativo? Cualitativo? Qué
tipo de muestreo propone? Aleatorio? Con qué
nivel de desagregación?
78
Estudio de Caso Familias en Acción Matriz de
Diseño de una Evaluación
Preguntas Sub-Preguntas Tipo Diseño Medidas Fuente de Datos Muestra


Preguntas Sub-Preguntas Recolección de Datos Análisis de Datos Comentarios


79
Taller en grupo Matriz de diseño
IV. Caso de estudio
Con toda la información anterior, finalice la
construcción de la matriz de diseño de su
proyecto de evaluación para presentarla a todos
80
Diseño
IV. Caso de estudio
81
Análisis de Datos
IV. Caso de estudio
  • Desde el diseño de las preguntas, los formularios
    y los indicadores, se deben programar como van a
    ser los modelos de análisis.

82
El Proceso de Evaluación
IV. Caso de estudio
83
Taller en grupo Socialización
IV. Caso de estudio
CÓMO SERÍA SU ESTRATEGIA PARA DIVULGAR LOS
RESULTADOS OBTENIDOS? QUÉ RESULTADOS ESPERA DE
SU EVALUACIÓN PARA QUE SEA CONSIDERADA COMO UNA
EVALUACIÓN EFECTIVA?
84
V. Metodologías de evaluación
Insumos
Procesos
Productos
Resultados
Impactos
85
V. Metodologías de evaluación
86
V. Metodologías de evaluación
Institucional Ejecutiva Operaciones Resultados Impactos
87
V. Metodologías de evaluación
Institucional Ejecutiva Operaciones Resultados Impactos
88
V. Metodologías de evaluación
Institucional Ejecutiva Operaciones Resultados Impactos
89
V. Metodologías de evaluación
Institucional Ejecutiva Operaciones Resultados Impactos
90
V. Metodologías de evaluación
Institucional Ejecutiva Operaciones Resultados Impactos
91
GRACIAS
DIRECCION DE EVALUACION DE POLITICAS
PUBLICAS DEPARTAMENTO NACIONAL DE
PLANEACION REPUBLICA DE COLOMBIA Tel (571) 381
5270 Email waguilar_at_dnp.gov.co
Write a Comment
User Comments (0)
About PowerShow.com