El Programa de Incentivos a los docentes- investigadores “puertas adentro”

Fabiana Bekerman1 . bekemanf@gmail.com

CONICET-INCIHUSA-CCT Argentina

Recibido 02-02-2018
Aceptado 30-06-2018

Resumen

El Programa de Incentivos a los docentes-investigadores es el principal instrumento para estimular la investigación en las universidades nacionales públicas -único en aquellas donde no existe una carrera docente-, consistente en una categorización y la consiguiente asignación de capital económico y simbólico. Numerosos autores han analizado el surgimiento y la normativa de este programa; sin embargo, poco sabemos acerca de su aplicación concreta durante el proceso de evaluación y asignación de categorías. Nos proponemos analizar la estructura y funcionamiento de este programa durante la última convocatoria: la normativa, sus modificaciones y los espacios institucionales decisorios, así como la dinámica de las comisiones regionales y los comités evaluadores; buscando conocer la(s) cultura(s) evaluativa(s) del heterogéneo sistema universitario, advirtiendo particularidades institucionales, regionales y disciplinares. Para ello, hemos realizado un trabajo empírico consistente en 10 viajes de estadía en las distintas comisiones regionales que funcionaron durante 2016 y 2017 en todo el país, haciendo observación participante y entrevistas a miembros de las comisiones regionales, evaluadores e informantes claves. Palabras claves: Política científica-Sistemas de evaluación-Universidades Nacionales Públicas

1 La autora quiere agradecer la lectura atenta y los aportes de Fernanda Beigel y de los evaluadores ciegos de la primera versión del artículo.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

115

Abstract

The Incentive Program for teachers-researchers is the main instrument to stimulate research in public national universities -only in those where there isn’t a teaching career-, consisting of a categorization and the allocation of economic and symbolic capital in function of it. Numerous authors have analyzed the emergence and regulations of this program; however, we know little about its concrete application, the development of the categorization and the application of the evaluation criteria in the conformation of a university evaluative culture. We intend to analyze the structure and function of this program during the last convocatory: the regulations, their modifications and the institutional decision-making spaces, as well as the dynamics of the regional commissions and the evaluating committees; investigating the evaluative cultures existing in the heterogeneous university system, noting institutional, regional and disciplinary particularities. Therefore, we have carried out a broad field work observing regional evaluation committees that worked during 2016 and 2017 in the whole country, and interviewing committee members, evaluators and key informants.
Key words: Scientific Policy-Evaluation Systems-Public National Universities

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

116

Introducción

El programa de incentivos a los docentes-investigadores (en adelante, PROINCE) es la principal herramienta de política para estimular la investigación en las universidades nacionales; en complemento con los subsidios y las becas. La mayoría de los autores que han abordado estudios sobre el PROINCE coinciden en afirmar que su implementación produjo un aumento y expansión de la investigación en el sistema universitario. Badano et al (2005) han sostenido que hubo un crecimiento significativo de los proyectos de investigación en todas las áreas disciplinares lo cual generó una descentralización de esta actividad que se expandió más allá de las fronteras del Conicet, contribuyendo a modificar el imaginario jerarquizante que ubicaba a la investigación como atributo de la “raza” de los investigadores que, en ciertos casos, por extensión, realizaban tareas docentes. En la misma línea, Prati (2003), agrega que el PROINCE logró instalar una especie de “Conicet paralelo” al interior de las universidades. Sin embargo, la bibliografía disponible también advierte sobre ciertos efectos negativos. Araujo (2003), ha sostenido que la aplicación del programa alentó la competencia, rivalidad, burocratización y potenciación de prácticas autoritarias en la vida académica. Esta autora indica que la búsqueda por alcanzar la categorización o recategorización provocó pérdida de sentido de la actividad de investigación, pérdida de originalidad y corrupción del trabajo académico. Otros autores han indicado que el programa fue asumido como un aumento salarial encubierto en un contexto de reducción presupuestaria dando lugar a una práctica fetichista de la investigación basada en la tergiversación y simulación de los indicadores de publicaciones para cumplir con los objetivos cuantitativos establecidos, pero impactando ligeramente sobre la docencia y la investigación; en consecuencia, su importancia sería más ideológica que práctica (Chiroleu, Suasnábar y Rovelli, 2012; Gordon, 2013). Ridel (2011) ha sumado otras críticas tales como: debilitamiento de la docencia dado el peso que el programa otorga a la investigación, surgimiento de una competencia desigual entre investigadores de Conicet dedicados a la investigación y docentes dedicados típicamente a la actividad docente, falta de compromiso con las actividades de investigación motivadas por el incentivo más que por un interés
genuino en investigar, promoción de las publicaciones en revistas internacionales en detrimento de las nacionales, ausencia de parámetros para medir los efectos del programa en la calidad de la investigación, surgimiento de competencia y defensa de intereses corporativos entre pares, entre otras.
Los autores mencionados anteriormente, así como otros que también han analizado el PROINCE (Fernandez Berdaguer y Vaccarezza, 1996; Sarthou, 2013,
2014 y 2016; Sarthou y Araya, 2015; Carrizo, 2011) focalizaron sus estudios en la normativa, el contexto de surgimiento, el desarrollo y la receptividad en la comunidad académica de este programa; sin embargo, poco sabemos acerca de su aplicación concreta y las implicancias de sus modos de funcionamiento durante el proceso de categorización. Tampoco han sido analizados los criterios de evaluación aplicados en los comités evaluadores y cómo estos van contribuyendo a la conformación de una(s) cultura(s) evaluativa(s) en las universidades2. En este trabajo, realizamos un análisis que intenta indagar en los modos de funcionamiento del programa, la dinámica de trabajo de las comisiones regionales y los comités evaluadores, advirtiendo las tensiones que surgen durante el proceso de evaluación que se desarrolla en un campo universitario muy heterogéneo. Nos preguntamos cuáles son las tensiones existentes en los sistemas de evaluación en general y qué particularidades asumen en campos científicos periféricos, cuáles son las especificidades del PROINCE, cómo es su estructura y funcionamiento, cómo trabajan las comisiones regionales y los comités evaluadores, cómo se organizan las evaluaciones, qué diferencias regionales existen.
La normativa del PROINCE establece que la categorización se basa en un sistema en el cual los pares evaluadores califican la producción y circulación del conocimiento producido por los docentes, poniendo en juego la calidad científica. Sin embargo, en este programa como en cualquier sistema de evaluación, no existe un consenso interdisciplinario sobre lo que significa la calidad y cómo se alcanza; por el contrario, las disciplinas y las instituciones tienen especificidades y sus miembros la definen de diferentes formas. De manera que, el criterio para evaluarla puede ser diferentemente ponderado y esto lo convierte en objeto de conflictos. Las propias instituciones generan una cultura evaluativa, construyendo criterios en los que los agentes comienzan a creer y aplicar en el desarrollo de sus trayectorias académicas; es decir, adquieren carácter normativo, orientan las prácticas de los agentes y promueven ciertas decisiones estratégicas, en detrimento de otras, sobre qué priorizar. En el caso del Conicet, por ejemplo, la cultura evaluativa es fuertemente heterónoma respecto del sistema académico mundial, es decir, -aunque en algunos casos ha sido permeable a presiones o reclamos disciplinarios específicos- se nutre de estándares y normas internacionales.
Además de los criterios establecidos institucionalmente, los docentes-investigadores que cumplen el rol de evaluadores en el marco del PROINCE -muchos de los cuales tienen múltiples pertenencias institucionales- ponen en juego su cur riculum oculto, sus propias ideas sobre cómo evaluar, sobre los modos de producción y circulación de conocimiento, que pueden entrar en contradicción con los criterios establecidos en las grillas de evaluación en cuya elaboración, mayoritariamente, no han participado (Piovani, 2015). Esto nos conduce a interrogarnos sobre cuál es

2 Este trabajo forma parte de una línea de investigación más amplia inserta en el Programa de Investigaciones sobre Dependencia Académica en América Latina (PIDAAL) orientada a comprender los modos de producción y circulación del conocimiento científico en países periféricos.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

117

el grado de autonomía de los comités evaluadores, cuáles son las discusiones que emergen entre los pares que participan en la categorización y cómo incide el modo de organización y funcionamiento de las comisiones evaluadoras en este proceso.
Para responder a estos interrogantes disponemos de material empírico resultado de 10 viajes de estadía en las distintas comisiones regionales que funcionaron durante 2016 y 2017: Comisiones Regionales Metropolitana, en Capital Federal; Bonaerense, en Tandil; Centro Este, en Santa Fe; Centro Oeste, en Mendoza; Noreste, en Corrientes y Noroeste, en Jujuy3. Allí realizamos un estudio cualitativo (observación participante) en los comités evaluadores y más de 40 entrevistas con evaluadores, miembros y presidentes de las comisiones regionales e informantes
claves.

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

118

Los sistemas de evaluación: sus implicancias y las especificidades en campos científicos periféricos

La práctica de la evaluación ha formado parte de la ciencia académica desde mediados del siglo XVII, cuando comenzó a constituirse un sistema de comunicación de los resultados científicos. En 1665 la Royal Society creó la primera revista donde la publicación de los trabajos requería previamente un informe favorable de un miembro de la sociedad científica, inaugurando lo que luego se denominaría revisión editorial por pares (Zuckerman y Merton 1971, citado en Sarthou, 2016). Esta evaluación se extendió y comenzó a emplearse en diversos ámbitos, pero fue recién luego de la segunda posguerra cuando el Estado comenzó a incidir sistemáticamente en el desarrollo del conocimiento científico y tecnológico y la revisión por pares se convirtió en el instrumento utilizado para distribuir los fondos públicos entre instituciones e investigadores (Rip, 1994). En ese momento, los países desarrollados comenzaron a delinear políticas científicas y a crear diversos instrumentos (como subsidios y becas otorgados por concursos) e instituciones (Consejos científicos, ministerios, programas). Paralelamente, se fue conformando un mercado donde los investigadores competían para obtener los recursos, acreditando diversos capitales (simbólico, científico, académico) y sometiéndose a mecanismos de evaluación.
Molas-Gallart (2012) propone una definición de sistema de evaluación que si bien es amplia brinda un punto de partida. Los define como el conjunto de actividades y prácticas relacionadas a la determinación sistemática de la calidad o del valor de actividades de investigación (a realizar, en desarrollo, o ya realizadas) de individuos, instituciones u organizaciones que realizan dichas actividades. Se extiende a la evaluación ex ante y ex post de proyectos y programas, y de quienes los realizan (individuos o instituciones) e incluye diversos niveles: la valoración de una propuesta de proyecto de investigación o una de logros de investigación, los resultados de un programa o el rendimiento de la investigación. Desde una perspectiva normativa de la ciencia, Merton (1942) fue pionero en analizar cuáles eran las condiciones que debía cumplir cualquier sistema de evaluación por pares postulando que a condición de respetar la norma del comunalismo (poner a disposición los resultados del trabajo científico) se puede ejercer el escepticismo organizado a través de comités editoriales de revistas o de agencias de financiamiento de la investigación. Esto está asociado a evaluaciones ex post sobre trabajos ya realizados o trayectorias hasta un momento determinado (informes de investigadores, resultados de investigación,

3 Lamentablemente, no pudimos concretar el trabajo de campo en la Comisión Sur porque las autorizaciones para realizar nuestro estudio llegaron cuando esa comisión ya había realizado la única reunión en la cual evaluaron las 1.917 postulaciones correspondientes a esta regional.

etc.). La evaluación ex ante implica una revisión de los méritos que presentan los postulantes que aspiran a obtener beneficios económicos (adjudicación de fondos) y/o simbólicos (renovación de una condición académica o inclusión en tal o cual categoría). En el caso específico del PROINCE, como veremos más adelante, la evaluación se centra en dos objetivos: por un lado, evaluación de proyectos de investigación lo cual involucra una evaluación ex ante para acreditarlos y ex post para otorgar una valoración sobre los informes finales; y, por otro lado, la evaluación de la trayectoria individual de los docentes investigadores que implica una valoración sobre los productos de las actividades académicas realizadas.
La evaluación de los méritos individuales es compleja porque involucra una comparación para decidir a quiénes se les otorgará los beneficios derivados del instrumento y, por eso, Bianco, Gras y Sutz (2014) sostienen que la evaluación de los méritos requiere una jerarquización que permita establecer comparaciones basadas en criterios predefinidos. Esos criterios de evaluación, así como los instrumentos concretos que se utilizan para realizarla, son el resultado de los lineamientos de una política. Ahora bien, tanto los procesos de evaluación como las definiciones de políticas constituyen procesos dinámicos que sufren modificaciones, avances y retrocesos, tal como veremos cuando analicemos el desarrollo del PROINCE. Pero, además, la política entendida como una acción racional orientada a fines puede derivar en resultados no queridos o inesperados, algunos de los cuales pueden ayudarnos a caracterizar el modelo de evaluación que el PROINCE promueve y sus implicancias.
Un primer efecto no esperado puede derivar de la universalización de los juicios o criterios de un grupo restringido de orientaciones (ligado a instituciones o disciplinas) para valorar la producción del conocimiento en una diversidad de objetos, marcos conceptuales o resultados de investigación; en lugar de respetar las diversas identidades académicas que ponderan la producción de conocimiento de manera diferente. Veremos más adelante que en el programa objeto de nuestro análisis existe una tensión entre quienes sostienen la necesidad de generalizar y homogeneizar los criterios de evaluación para poder implementar el programa en el escenario universitario nacional y quienes consideran necesario incluir especificidades disciplinares, institucionales o regionales que atiendan las heterogeneidades. En segundo lugar, puede suceder que exista una inadecuación del sistema de señales (conjunto de juicios, normas y objetivos que se institucionalizan como dominantes en el campo) que los sistemas de evaluación emiten hacia la producción de conocimiento impactando sobre la dirección de la investigación y sobre la conformación de agendas de investigación. Un ejemplo está constituido por las asimetrías en el resultado de la evaluación originadas en la tendencia a premiar a los mejores (agentes, instituciones, proyectos) -aquello que Merton denominó “el efecto Mateo”-: estratificación de las instituciones de investigación, reforzamiento de ciertas disciplinas centrales, disminución del pluralismo en la producción del conocimiento, restricciones para el desarrollo de nuevos campos de conocimiento. Veremos que el PROINCE tiende a beneficiar a una cúpula conformada por docentes que pertenecen al Conicet con categorías altas o que tienen mucha antigüedad y horas de dedicación a la docencia (Carrizo, 2011). Un tercer resultado no deseado de los mecanismos de evaluación por pares se refiere al efecto de autoridad académica consecuencia del sistema ciego en una sola dirección. Es decir, el investigador evaluado no conoce la identidad del evaluador, pero a este se remite el curriculum completo del primero

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

119

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

120

y el conocimiento de la trayectoria de quien se postula pueda incidir en el juicio sobre la calidad de la presentación, sobre todo cuando el curriculum del postulante lo revela como autoridad en su especialidad. Durante nuestro trabajo de campo en las reuniones de evaluación del PROINCE, hemos observado que este hecho es muy visible y afecta directamente el proceso de categorización. Transcribimos un ejemplo: “Un evaluador toma el listado de los post ulantes que deben evaluar y le dice al resto de los evaluadores: “Acá esta la lista de la caja, tenemos todos los pesos pesado!”. A cont inuación, toma una de las carpetas y dice: “Miren lo que me tocó!” -mostrando el nombre del post ulante al resto de los evaluadores-. Otro evaluador le responde: “uy y…. Ese es fácil, ponele I directamente! (todos se ríen)”. (Notas de observación, Comisión Regional A, 23/08/16)4.
Estos y otros condicionantes de cualquier sistema de evaluación adquieren especificidad en el contexto en el cual se desarrollan y, por eso, diversos autores han indagado sobre la práctica científica en campos periféricos (Vessuri, 1984; Kreimer,
2011; Beigel, 2013, 2018; Beigel y Salatino, 2015; Bianco, Gras y Sutz, 2014; Sutz,
2014; Ortiz, 2009; Naidorf y Perrota, 2016). En América Latina, las primeras formas de evaluación de la ciencia estaban basadas en mecanismos internos a los propios colectivos científicos, en función de parámetros intersubjetivos, y las trayectorias científicas estaban reguladas por mecanismos propios de reconocimiento entre pares sin que mediara ninguna otra instancia externa a la propia comunidad. Recién a inicios del siglo XX se incorpora la investigación científica en las universidades de manera más sistemática y con ello el estado comienza a ocupar un rol como ente financiador. A partir de 1950 comienzan a desarrollarse políticas científicas, ejerciendo una función fundamental en la distribución de los recursos, la regulación de las carreras y el establecimiento de prioridades. Ya en la década de 1980 el Estado interviene fuertemente en la formulación y ejecución de políticas específicas para el desarrollo de la investigación en la universidad, además de la financiación. En este contexto, se crean sistemas de evaluación de la investigación científica que penetran en las instituciones universitarias, afectando el desarrollo de dicha actividad, las carreras académicas y el conjunto del sistema de educación superior.
Los trabajos desarrollados en el marco del PIDAAL han demostrado que para comprender la lógica de funcionamiento de los campos científicos periféricos es necesario tomar distancia de una interpretación simplista sobre la dependencia académica que considera un centro activo y productor de conocimiento y una periferia pasiva receptora e importadora de ideas; y lo mismo cuenta para el caso de los sistemas de evaluación de la actividad científica. Si bien la primera base de información sobre el desarrollo científico de las revistas cuya información correspondía mayoritariamente a la academia estadounidense (creada en 1959, actualmente Web of Science Thomson&Reuters- y su Science Citation Index -SCI) jugó un rol central en la definición e internacionalización de los criterios de evaluación; sin embargo, las transformaciones recientes en la circulación internacional del conocimiento han diversificado la periferialidad científica a tal punto que es necesario revisar las perspectivas tradicionales que tienden a identificar el desarrollo científico con el crecimiento en términos de publicaciones/impacto en las revistas mainstream (Beigel, 2018).

4 Hemos renombrado las Comisiones Regionales con letras para evitar identificarlas y mantener el anonimato de las observaciones y las entrevistas realizadas.

En el caso argentino, por ejemplo, se han ido construyendo circuitos segmentados de publicación científica (Beigel y Salatino, 2015; Salatino, 2018) que profundizaron la división entre dos estilos de producción y circulación de conocimiento cada vez más diferenciadas: uno, internacionalizado desconectado de la agenda local y valorado fuertemente en el Conicet donde siempre han dominado las ciencias exactas y naturales; otro, conformado en circuitos locales relativamente aislados de los debates internacionales con mayor anclaje en las universidades del interior del país, y especialmente en las ciencias sociales y humanas (Beigel, 2018). En trabajos previos (Bekerman, 2013; 2018) hemos demostrado que el origen de la separación de carreras diferenciadas en el Conicet y en las universidades se encuentra en la política científica implementada por la última dictadura militar, la cual transfirió recursos financieros al organismo descentralizado creando más de cien institutos bajo su órbita al tiempo que desfinanció las universidades nacionales. Ambos perfiles conviven en el campo científico argentino5, mostrando que existe una fuerza o lógica endógena, aquello que Bourdieu (2003) denomina el propio nomos del campo, que está en permanente tensión con las fuerzas exógenas (en este caso, con las tendencias globales o “universalizantes”). Estas tendencias autónomas y heterónomas, y por lo menos dos principios de legitimación diferentes, han caracterizado a las elites académicas y coexisten en el interior de un campo estructuralmente heterogéneo, signado por fuertes asimetrías disciplinares, institucionales y regionales (Beigel, Gallardo y Bekerman, 2018).

Surgimiento y estructura normativa del PROINCE.

Las universidades argentinas, al igual que en el resto de los países latinoamericanos, se caracterizan por su carácter profesionalista y a pesar de los esfuerzos que se han hecho a lo largo de la historia para desarrollar la investigación, algunos datos indican que todavía el conjunto del sistema universitario tiene una fuerte deuda con esta actividad: según los últimos datos disponibles, tan solo el 12% de los docentes universitarios tiene dedicación exclusiva y apenas el 9% de los docentes incentivados en el PROINCE son categoría I y el 14% categoría II, mientras que las categorías inferiores, correspondiente a personas que se están iniciando en la investigación o que tienen escasa producción científica, representan en conjunto el 76% (SPU,
2013). En la década del noventa se introdujeron reformas, en el sistema de educación superior y en el complejo científico-tecnológico, orientadas a vincular la evaluación de la investigación y la docencia con el financiamiento. El encargado de definir la política de evaluación en las universidades fue el Ministerio de Educación a partir de la acción de la Secretaría de Políticas Universitarias (SPU), fundada en 1993; la cual creó el Programa de Incentivos a los docentes-investigadores en las universidades públicas6, como respuesta a un relevamiento para determinar la situación en la que se encontraba la investigación en las universidades que reveló serias carencias en esta actividad (SPU, 1999). El programa fue puesto en marcha a partir de 1994 y desde ese momento se han abierto convocatorias en seis oportunidades: 1994,
1998, 2004, 2009, 2011 y 2014.

5 La descripción de estos perfiles contrapuestos tiene fines analíticos; no existen de manera pura en la realidad, sino que encontramos una multiplicidad de matices y grises entre un extremo y el otro que conviven en el campo científico-universitario.

6 Decreto N0 2427 del PEN en noviembre de 1993.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

121

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

122

El PROINCE se proponía incrementar las tareas de investigación y desarrollo a nivel nacional, reconvertir la planta docente en las universidades, fomentar la mayor dedicación de la actividad universitaria y la creación de grupos de investigación (Considerandos, Decreto N0 2427). Para cumplir estos objetivos el programa otorgaba un plus salarial a los docentes que participaran en un proyecto de investigación acreditado, dictaran cierto número de horas de clase y atravesaran un proceso de evaluación de sus antecedentes y su producción (categorización) que era paralelo al sistema de concursos y que permitía el acceso a un escalafón adicional al de los cargos docentes, conformado por una jerarquía de categorías equivalentes de investigación (CEI). Desde 1997 se definieron categorías desde la I a la V, siendo las dos primeras (I y II) habilitantes para formar parte de un Banco de Evaluadores que son quienes realizan la evaluación ex post, juzgando la trayectoria de los docentes postulados y asignando la CEI (Sarthou, 2014; 2016).
La SPU otorgó un rol importante al CIN como instancia de discusión de los primeros borradores del programa y buscó el acuerdo de las universidades tanto por su carácter autónomo como por su valor estratégico para su efectiva aplicación (Prati, 2003). Así, en los inicios, la categorización la realizaba cada universidad en base a la interpretación diversa de los criterios de evaluación propuestos por la SPU y, además, existía una categorización automática según una tabla de equivalencias para los docentes pertenecientes al Conicet y la Cic que obtenían sus categorías sin someterse a la evaluación por pares. Estos mecanismos derivaron en conflictos surgidos por la falta de precisión y unificación de los criterios y, como consecuencia, el Ministerio de Educación convocó a una comisión de académicos que habían participado como evaluadores para discutir la aplicación de los criterios de evaluación (Carrizo 2011). El resultado fue la sanción del primer Manual de Procedimientos, por Resolución Ministerial No2307/97, que reemplazó la normativa existente y organizó los criterios de evaluación en condiciones cualitativas y condiciones cuantitativas para cada categoría. Estos requisitos han sufrido modificaciones en 2003, 2008 y
2014, las cuales analizaremos más adelante. Además, quedaba establecido que la autoridad de aplicación era la SPU junto con la Secretaría de Ciencia y Tecnología hasta 2007 cuando la contraparte pasó a ser la Secretaría de articulación científico- tecnológica del Ministerio de Ciencia, Tecnología e Innovación Productiva (MINCYT).
La instancia de mayor jerarquía en el proceso de categorización es la Comisión Nacional de Categorización (CNC), dependiente del Ministerio de Educación y conformada por los presidentes de cada una de las CRC (que son siete siguiendo la delimitación establecida para los CPRES: Noroeste, Noreste, Centro Este, Centro Oeste, Metropolitana, Bonaerense y Sur); dos representantes de la SPU y dos de la Secretaría de Articulación Científico-Tecnológica; coordinada por un presidente rentado. Es la encargada de definir los criterios de categorización; asesorar y supervisar la aplicación de esas pautas; resolver los recursos de apelación que se presenten contra las resoluciones de las CRC. La normativa establece que la CNC estará asesorada por una Comisión integrada por 9 miembros (4 por el CIN, 2 por el Ministerio de Educación, 2 por el MINCYT y un miembro de la CNC) (Art. 3), sin embargo, esta comisión nunca se conformó. La CNC y el CIN constituyen espacios de disputa en la definición de los criterios de evaluación y sus vínculos revelan tensiones. Un entrevistado sostenía: “…qué t iene que hacer el CIN con una propuesta en la CNC, el manual de procedimientos establece que la autoridad de aplicación t iene una comisión asesora (…) y el CIN nunca designó (…) Es que nunca se interesó por el

programa (…) que se dejen de joder, que nombren a sus representantes…” (Entrevista, informante clave, 22/02/17). Por el contrario, un miembro de una Comisión Regional de Categorización durante una charla con los evaluadores decía que, precisamente, el ámbito apropiado para debatir sobre el PROINCE es la Comisión de Ciencia, Técnica y Arte del CIN (Notas de observación, Comisión Regional D, 22/11/16). En esta línea, una entrevistada decía: “…la CNC ent iende en los procesos de categorización pero no necesariamente debería entender en la normat iva (…) es una comisión operat iva de gest ión de la categorización en curso, pero de alg una manera ha tomado algún rol más de asesor porque nunca se constituyó la otra comisión (…) el CIN como que reclama más protagonismo en el tema del programa, del manual y de la cuest ión polít ica, digamos, del incent ivo” (Entrevista, miembro Comisión Regional C, 14/1/16).

La segunda instancia para la categorización está constituida por las Comisiones Regionales de Categorización (CRC), integradas por tres representantes de la región, uno de los cuales la preside e integra la CNC como su representante –generalmente este rol es ocupado por el secretario de C y T de la universidad anfitriona, que organiza el proceso de categorización-; dos representantes de la CNC y dos de la SPU que no pertenezcan a la misma región ni integren la CNC. Entre las funciones de las CRC están la coordinación de la categorización; la conformación de los comités de evaluadores y la asignación de las categorías propuestas por estos.
La tercera instancia está conformada por los Comités Evaluadores (CE), integrados por docentes investigadores categorías I y II (Banco de Evaluadores). Las CRC conforman tantos comités evaluadores como sean necesarios en función de la cantidad de carpetas a evaluar, y atendiendo a veces con mayor rigurosidad que otras a dos criterios básicos: la composición multidisciplinar (la normativa establece una mayoría disciplinar y una minoría extra disciplinar) y regional (más de la mitad de sus miembros deben ser externos a la región). La mecánica del proceso de categorización establece que los comités evaluadores realizan la evaluación y “recomiendan” una categoría y la CRC es la encargada de asignarla. La CRC no puede evaluar, sino que anula o acepta la evaluación realizada en los comités por los evaluadores.
Como mencionamos anteriormente, en el Manual de Procedimientos se especifican los requisitos cualitativos y cuantitativos necesarios para acceder a cada categoría del PROINCE. Durante la última convocatoria 2014-2015, objeto de nuestro análisis, se empleó el último Manual, aprobado en 2014 por Resolución N01543 del Ministerio de Educación, el cual incorporó cambios fundamentales en los requisitos cuantitativos y cualitativos7. Entre los primeros, subió el puntaje para acceder a la categoría I, pasando de 1100 en 2008, a 1200 en 2014. Algunos agentes involucrados en el proceso de categorización consideran este cambio como una reducción a la accesibilidad de la categoría I, una suerte de elitización de esa categoría; para otros, este cambio de puntaje no cerró puertas porque estuvo acompañado de una diminución de las exigencias cualitativas, como veremos enseguida. Para los docentes categoría I se incluyó una nueva cláusula por la cual quienes obtengan o hayan obtenido esta categoría en dos categorizaciones consecutivas, podrán mantenerla hasta su desvinculación del programa. Las categorías II, III y IV mantuvieron sus puntajes (750, 500 y 300 respectivamente) y la categoría V se desdobló: en caso que el postulante quiera permanecer en esta categoría tiene que reunir 150 puntos y en caso que el postulante quiera ingresar por primera vez se eliminaron

7 También hubo cambios en los puntajes asignados a cada uno de los ítems/aspectos establecidos en la grilla de evaluación, los que serán analizados en un trabajo posterior.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

123

los 100 puntos que antes eran necesarios dejando sólo los requisitos cualitativos y excluyendo estas postulaciones de la evaluación por pares. Esto agiliza una gran parte de las postulaciones iniciales a esta categoría porque es la propia universidad la que fiscaliza que se cumplan esos criterios cualitativos y envía esas carpetas a la CRC para que asigne la categoría.
Entre los requisitos cualitativos se flexibilizaron las exigencias de acceso a las categorías superiores. Para la categoría I anteriormente se requería haber dirigido como mínimo dos tesis de posgrados mientras que el nuevo Manual exige haber dirigido una y dirigido o co dirigido otra; además, permite reemplazar este requisito por una labor continuada de 12 años de formación de recursos humanos acreditada mediante un informe. Para la categoría II que anteriormente era un requisito haber dirigido una tesis de posgrado, la nueva norma estipula haber dirigido o co-dirigido una tesis o acreditar una labor continuada de formación de recursos humanos durante 8 años8. El resto de las categorías mantuvieron los requisitos preestablecidos: para la III, haber dirigido o coordinado un proyecto de investigación o acreditar 8 años de formación de recursos humanos; para la IV, tener un doctorado aprobado o demostrar una labor de investigación; para ingresar a la categoría V, participar en un proyecto de investigación o poseer una beca de investigación o ser alumno de una maestría o doctorado; y para permanecer en la categoría V, participar de al menos un año en un proyecto acreditado o haber sido becario o tener tesis de maestría o doctorado aprobadas. En todos los casos es necesario tener un cargo docente rentado.
Las modificaciones implementadas dispararon tensiones latentes vinculadas a las heterogeneidades del sistema universitario. Un miembro de una CRC sostenía que esas modificaciones hicieron más laxos los criterios de evaluación: “yo he visto mucha flexibilización del programa (…)…si no t ienen la tesis, pueden tener 8 años; si no pueden tener dos tesis, puede traer 12 años blablablá….(…)voy hablar de las ciencias sociales (…) que la parte investigativa es más bien, en términos generales, solitaria, empezó a promover una mayor dedicación al tesista, porque como t iene una punt uación ser director de tesis finalizada, entonces mucha gente que decía no, no tengo tiempo, no, no quiero, empezó a buscar eventuales tesistas y empezó a presionar para que efectivamente trabajen y para que efect ivamente presentaran las tesis. Pero con esto de que puede ser sust it uido con 8 años o 12 años, entonces eso vuelve a decaer…” (Entrevista, miembro Comisión Regional F, 4/10/16). En el mismo sentido, otro entrevistado nos decía que los cambios en los requisitos cualitativos pueden perjudicar al sistema al permitir un acceso menos restringido a las categorías superiores: “…yo le planteé una vuelta en el CIN (…) les planteé qué pasaría si todos fuéramos I, ¿quieren ser I? Todos I, es como en el CONICE T si todos fueran superior no tendría sentido, o sea, ¿Usted qué quiere ser, I? Acá está. Se acabó la historia. Plancha…” (Entrevista, informante clave, 23/11/16). Contrariamente, otros agentes sostienen que estos cambios en la normativa atienden especificidades disciplinares e institucionales: “…codirigir a veces es más que dirigir (…) esa era una gran discusión (…) y otra que tenía que ver con las disciplinas, con doctorados recientes, con los cuales era obvio que no iban a tener doctores, caso arquitect ura, caso

artes, era una de las más desfavorecidas, donde el doctorado en la UBA hace muy poco

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

124

8 Estos cambios retrotraen la normativa a sus inicios cuando los requisitos exigían “la formación de recursos humanos”, lo cual generaba conflictos por ser un criterio poco preciso. Como respuesta, se buscó operacionalizarlo a través del conteo de la cantidad de tesis dirigidas, disparando disconformidades por parte de universidades pequeñas o disciplinas con escasa tradición de posgrados. La re-incorporación de la formación de recursos humanos es un claro reflejo de las tensiones y el carácter dinámico del proceso de definición de los criterios de evaluación.

que existe, los arquitectos doctores en la UBA son contados con las manos, entonces era lógico (…) y después, digamos, que muchos casos, puede haber mucha formación de recursos humanos que ig ual sea significat iva, por más que no haya llegado a dirigir una persona que termina una tesis” (Entrevista, informante clave, 4/10/16).

Dinámica de las evaluaciones en las regionales y conformación de los comités evaluadores

El trabajo empírico que hemos realizado nos ha permitido conocer el modo de funcionamiento de las comisiones regionales y los comités evaluadores y ha sido un insumo fundamental para reflexionar sobre algunas tensiones y límites del programa durante el proceso de categorización.
Habíamos mencionado que los docentes-investigadores pertenecientes a las dos categorías superiores conforman un Banco de Evaluadores (BE) que -según los últimos datos disponibles- alcanzaban un total de 7023 pertenecientes a las diversas áreas disciplinares. El BE disponible en la SPU presenta serios problemas con la actualización de la información. En la Comisión Regional D la persona encargada de la logística nos decía que en ocasión de convocar evaluadores del área de antropología envió 300 correos electrónicos (correspondientes al total de personas de esa área) de los cuales 200 fueron rechazados debido a direcciones incorrectas, personas jubiladas u otros motivos. En otra regional nos decían: “… muchos del banco de evaluadores son personas que ya están fallecidas o que están jubiladas” (Entrevista, miembro Comisión Regional E, 25/10/16). Esta cuestión no es menor si consideramos que las piezas claves del proceso de categorización son los evaluadores.
Respecto a la conformación de los comités evaluadores, hemos observado que discursivamente los presidentes de las CRC asumen los criterios establecidos en el Manual de Procedimientos (que establece un mínimo de 3 personas, con mayoría disciplinar y más de la mitad externos a la región, debiendo los evaluadores regionales abstenerse de intervenir en la categorización de docentes de su propia universidad), pero en la práctica intervienen otros factores en la selección de los evaluadores, con mayor o menor peso dependiendo de cada comisión regional. Uno de ellos es la cercanía geográfica respecto de la universidad donde se realiza la evaluación, lo que permite optimizar recursos. La desventaja radica en que muchos evaluadores comparten con los evaluados ciertos espacios académicos, y eso interfiere, inevitablemente, en la evaluación. En otra regional nos decían: “…nosotros en realidad lo que miramos es una cuest ión bien pragmát ica, que haya conexiones de colect ivo directo, que haya vuelos, de la UBA nos cuesta mucho traer gente categoría I, o sea que en general traemos II, porque los I son como muy top y están muy ocupados y no vienen.” (Entrevista, miembro Comisión Regional C, 14/11/16). Otro criterio interviniente es la edad; en algunas comisiones sostienen que los evaluadores de mayor edad aceptan más fácilmente porque “se lo toman como unas vacaciones”, en otras comisiones prefieren convocar a personas jóvenes porque están más predispuestas a cumplir con la tarea. Otro criterio que prevalece es convocar a “personas conocidas”, “cercanas”, “de confianza” para los miembros de la comisión regional, esto facilita la aceptación por parte de los evaluadores y, sobre todo, la tarea de evaluación. En algunas regionales utilizan como incentivo el ofrecimiento

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

125

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

126

de mayores comodidades durante la estadía o la organización de salidas turísticas, aunque en todas las regionales existe un descontento por la escasa disponibilidad de recursos disponibles.
En relación a la distribución regional de los evaluadores convocados un entrevistado nos decía: “se pueden tener locales, pero tenemos que tener cuidado de que no tengan carpetas de nuestra universidad (…) entonces nosotros preferimos traer extra regional todos, aparte da mucho más transparencia porque la región es pequeña y nosotros nos conocemos” (Entrevista, miembro Comisión Regional C, 14/11/16). En la práctica este criterio se cumple de manera más o menos estricta dependiendo de la regional. En algunos casos hemos observado que las carpetas de postulaciones están separadas por color para identificar la universidad de procedencia y evitar errores en la asignación de una carpeta a un evaluador de la misma universidad; mientras que en otras comisiones hemos visto que se filtran carpetas a evaluadores de la misma universidad.
El componente extra disciplinar de los comités evaluadores funciona de manera diferente en cada una de las CRC. En algunas evalúan a la par de los miembros disciplinares valorando los antecedentes del postulante, aunque en general ante situaciones conflictivas prevalece el juicio de los pares disciplinares: “…en el caso mío, no pertenezco a este campo curricular. Soy de otra área. Sigo todo el proceso, pero cuando surge algo específico de la disciplina por resolver, son ellos [en relación a sus compañeros] quienes determinan. Son los verdaderos conocedores de las incumbencias y límites disciplinares” (Notas de observación, Comisión Regional E, 25-27/10/16). En otras regionales, la evaluación está a cargo exclusivamente de los miembros de la disciplina y los extra disciplinares firman la planilla de evaluación con el objetivo de cumplir el requisito formal de la conformación de los comités, pero no participan en la evaluación: “nos hemos manejado de acuerdo a lo que indica el manual de procedimiento, que debe haber una mayoría externa y también una mayoría disciplinar, lo cual se conjuga a la hora de efect uar cada una de las actas. Después,

¿cómo es la composición de la comisión interna que trabaja? Bueno, eso por ahí varía. Puede haber mayor cantidad de internos, mayor cantidad de externos, mayor cantidad de disciplinares o extradisciplinares, pero luego la cuest ión clave es como firman en el acta” (Entrevista, miembro Comisión Regional B, 21/03/16). Podríamos pensar que la función del miembro extra disciplinar en los comités se orienta a controlar, fiscalizar y homogeneizar los criterios de evaluación; pero, en la práctica, hemos advertido que cuando se requiere tomar decisiones (por ejemplo, respecto a la relevancia de ciertas editoriales o congresos para la disciplina, los puntajes de las publicaciones, etc.) se impone la visión de los miembros disciplinares y las agentes extra disciplinares se muestran atomizados.

Durante las reuniones de evaluación, los comités están distribuidos en mesas redondas en uno o varios salones. Cada mesa tiene cajas con carpetas y rótulos en los cuales se identifica la disciplina, los nombres y pertenencia institucional de los evaluadores y cada uno recibe material necesario para la evaluación: hojas, lápiz, goma, lapicera, calculadora, normativa del programa. Además, todas las comisiones entregan un trabajo, que es de uso opcional pero hemos observado que la totalidad de los evaluadores lo consultan, consistente en una grilla de evaluación con puntajes máximos y mínimos sugeridos para cada ítem. La elaboración de este trabajo tiene su origen en una iniciativa de la CNC en la convocatoria de 2009 cuando ”…surge la idea de que teníamos que hacer algo para que usen los evaluadores y que sea un criterio

único (…) la idea era homogenizar la asignación de las categorías en todo el país (…)lograr un consenso de que un paper valiera lo mismo para los bioquímicos del Conicet y para los sociólogos de humanidades ad-honorem, que t uviera el mismo valor, y bueno, así se generó esto como un trabajo de consenso” (Entrevista, informante clave, 22/02/17) La reunión de evaluación, con una duración promedio de 3 días, comienza con una exposición del presidente de la comisión regional en la cual explica los requisitos cualitativos y cuantitativos para cada categoría; luego los comités disciplinares comienzan las evaluaciones. En general, abordan una carpeta entre todos los miembros discutiendo en vos alta los criterios de asignación de puntajes en cada ítem y, luego, continúan evaluando individualmente y en silencio el resto de las postulaciones. La evaluación va adquiriendo, entonces, una dimensión burocrático-administrativa, donde los evaluadores aplican criterios preestablecidos y colocan puntajes. En algunas regionales, los miembros de la CRC están presentes atendiendo las dudas que surgen por parte de los evaluadores y revisando todas las evaluaciones con el objetivo de advertir errores en la suma de los puntajes o en las consideraciones cualitativas. En otras regionales, por el contrario, los miembros de la Comisión se reúnen a posteriori de las evaluaciones; en algunas, revisan todas las carpetas evaluadas y, en otras, examinan sólo las postulaciones que consideran que podrían derivar en reconsideraciones por diversos motivos: asignación de una categoría inferior a la solicitada, cumplimiento del puntaje para determinada

categoría pero no del requisito cualitativo, o viceversa, entre otros.
El vínculo establecido entre la comisión regional y los comités evaluadores varía en cada regional; en algunas hemos detectado una incidencia más directa y explícita en la orientación de las evaluaciones, en otras, observamos mayor autonomía por parte de los evaluadores: “Nosotros…fiscalizamos que el proceso esté bien realizado,

¿nosotros qué miramos?, que, por ejemplo, si hemos pactado en la nacional que a los doctorados le vamos a dar hasta 200 puntos, que de repente no le den 300, porque estaríamos evaluando dist into a otras comisiones, o la suma, que la suma está bien hecha, que no se hayan olvidado de evaluar ítems, y que realmente hayan cumplido los requisitos cualitat ivos. Por ejemplo, a veces pasa que la persona t iene más puntaje de lo que corresponde en esa categoría, entonces es deber nuestro ver si no le corresponde una categoría más alta. Son ellos son [en relación a los comités evaluadores] los que t ienen la últ ima palabra de la evaluación”. (Entrevista, miembro Comisión Regional E, 04/10/16). Los evaluadores también manifiestan actitudes diversas, en algunos casos acatan pasivamente las recomendaciones de la comisión regional y en otros defienden su autonomía: “Nosotros somos comisión consultora (…) Somos la comisión nosotros, nos t ienen que respetar. Ellos nos marcan lineamientos generales nada más (…) Ellos no están de acuerdo con nuestro criterio. Pero bueno, que ellos le pongan no admit ido, pero nosotros no vamos a firmar lo que ellos digan cuando no estamos de acuerdo..” (Notas de observación, Comisión Regional A, 23-15/08/16). Una de las CRC adopta una modalidad particular realizando una tarea previa a la que realizan los evaluadores, donde verifican los requisitos cualitativos (por ejemplo, los 8 o 12 años de trayectoria) y asignan puntajes a ciertos ítems como la gestión, docencia, formación académica, etc.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

127

Docente-investigador o investigador-docente: acerca de los capitales en disputa

El PROINCE está destinado exclusivamente a docentes pertenecientes a universidades nacionales de gestión pública que desarrollan tareas de investigación; la categoría docente-investigador se instaló junto con la creación y puesta en marcha de este programa. Según los últimos datos disponibles, correspondientes a 2012, había 24.014 docentes-investigadores que percibían el incentivo (SPU, 2013) y su distribución institucional era desigual y fuertemente concentrada en tres universidades antiguas y prestigiosas: UNLP (17%), UBA (14%) y UNC (9%). Además, las categorías superiores eran minoritarias (9% categoría I y 14% categoría II), mientras que la categoría intermedia (III) representaba el 31%, la categoría IV el 23% y la categoría inferior el 22%. Contrario al lugar común que haría pensar que las universidades más numerosas tendrían mayor proporción de docentes incentivados en todas las categorías, la distribución de las categorías según universidades muestra que la UBA concentra mayores proporciones de docentes-investigadores con categoría I y que disminuye a medida que desciende la jerarquía de las categorías (Gráfico 1). Esto, sumado a otros datos de matrícula de posgrado, proporción de investigadores CONICET en esa universidad, cantidad de institutos, etc., nos estaría mostrando el fuerte rol que la UBA posee como formadora de elites académicas (Bekerman,
2018). La distribución disciplinar de los docentes incentivados refleja una fuerte presencia de las ciencias sociales y humanas (36%); luego las ciencias naturales (31%) y con una gran distancia siguen: ingeniería y tecnología (14%), agrícolas (11%) y médicas (8%).

Gráfico N01: Docentes-investigadores incentivados según categoría y universidad, 2012, %

UBA UNLP UNC Resto UUNN Total

80

70 65,26379994

7498

68,6316351

70,87103069

66,5610438

8000

7000

60

51,99105145

50

5637

5365

6000

5000

40

30

24,56375839

20

2235

3279

16,74290942

4000

3000

2000

11,09619687

13,21685783

12,7306617

12,34899329

9,576090271 9,389170445

10,511907,840804230016

12,4137931

10 8,417200366 8,762336623 8,124889125 8,294501398

1000

0 0

Cat.I Cat.II Cat.III Cat.IV Cat.V

Fuente: Elaboración propia en base a Anuario Estadístico SPU. 2013

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

128

Inmersos en este escenario de asimetrías y desigualdades, los docentes- investigadores van construyendo sus trayectorias académicas que se van definiendo, en gran parte, por el prestigio asignado por el resto de la comunidad de pares. Pero, ¿de dónde proviene o en que se basa ese prestigio? Siguiendo a Beigel (2017) podríamos diferenciar analíticamente dos perfiles opuestos de producción
y circulación de docentes-investigadores que van configurando su prestigio en base a capitales disímiles. Uno de ellos, sostenido sobre un prestigio científico “internacional”, nacionalmente reconocido, nutrido de saberes propios del oficio del investigador/becario de una institución como el Conicet y un tipo particular de capital social (relaciones con equipos de investigación reconocidos, participación en comisiones asesoras, asociaciones académicas, revistas científicas), cuya carrera depende de una competencia nacional sujeta a los criterios del sistema académico mundial, tales como publicar en revistas indexadas, preferentemente en inglés y en circuitos mainstream, medidas según su factor de impacto y los rankings9. El otro, basado en un prestigio académico local, institucionalmente reconocido, nutrido de saberes propios de la cultura universitaria y de otro tipo de capital social (relaciones con el poder universitario, participación en comités y redes universitarias) cuya carrera está regida por reglas de cada universidad y depende de la trayectoria docente, la participación en la gestión institucional y, en menor medida, de la investigación o las publicaciones que pueden ser en español y en revistas no indexadas. La autora argumenta que “ambos perfiles concentran poder de inst it uir y consagrar, pero detentan capitales poco transferibles: un profesor t it ular de una universidad de provincia con antecedentes de gest ión y de docencia perdería seg uramente un concurso para ingresar al Conicet, mientras que un invest igador de Conicet con muchas publicaciones internacionales (pero sin antecedentes docentes) puede perder un concurso en una universidad de provincia” (11). En el mismo sentido, podemos pensar que, un investigador independiente de Conicet que se postula en el PROINCE pero no tiene la antigüedad docente suficiente podría quedar excluido de la categoría III (y en consecuencia quedaría inhabilitado para dirigir proyectos en la universidad); al tiempo que un docente con categoría alta en el PROINCE (debido a su abultada trayectoria en docencia y con publicaciones en revistas locales o no indexadas) probablemente no accedería a la carrera de investigador en el Conicet. Esta tensión, que en la grilla de evaluación del PROINCE aparece reflejada en la distinción entre producción científica y producción en docencia, surgió en varias de las entrevistas que realizamos durante nuestro trabajo de campo. Por ejemplo, cuando los evaluadores advertían que se evaluaba con la misma vara la producción científica de docentes que sólo pertenecen a la universidad y de aquellos que, además, son investigadores del Conicet: “Eso es lo que yo le veo a este sistema de evaluación. Que, por ahí, es muy injusto hacia los docentes que solo somos docentes. Y es muy benévolo con aquellos que vienen de Conicet y a lo mejor t ienen un cargo simple y con eso entran justo para el Incentivo y ganan rápidamente las categorías altas (…) …se van en el paper, dejan la vida por el paper, y que la Universidad la manejen los otros. Claro y los otros manejamos la Universidad y después el mismo sistema nos cast iga (…) Entonces, esto es muy agresivo hacia el docente. Hacia el docente puro, no?” (Entrevista, evaluadora Comisión Regional A, 28/08/16). También, esta tensión fue visible en aquellas postulaciones de docentes pertenecientes al Conicet, cuyo perfil era claramente el de un investigador, que se esforzaban por distribuir sus producciones de manera tal que les permitiera completar en el formulario los aspectos correspondientes a la producción en docencia.

9 Destacamos que según datos del 2014 el 73% de los investigadores del Conicet tienen cargo docente, es decir, se desenvuelven en ambas instituciones y muchos de ellos cumplen el rol de evaluadores en el PROINCE porque detentan las categorías más altas (I o II).

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

129

La profesión académica se va configurando en interrelación con el contexto y, en este sentido, Vaccareza (2000) hace una diferenciación entre las universidades orientadas a la investigación, donde el prestigio proviene de la producción de conocimiento (el prestigio académico depende del prestigio de la comunidad científica) frente a las universidades argentinas, donde existe una tensión entre la disociación (característica de la última dictadura militar) y la asimilación (intentos por introducir la investigación entre la incumbencias del docente) entre la profesión científica y la profesión académica. Así, en nuestro particular contexto universitario, encontramos docentes-investigadores que despliegan estrategias tendientes al “mantenimiento del rol” conviviendo con aquellos que buscan una “reproducción ampliada del rol”. En el primer caso, los docentes se orientan al cumplimiento de determinados deberes (como el dictado de cierto número de cursos, la publicación de determinado número de papers, la atención de algunos becarios y tesistas, contar con proyectos de investigación aprobados y, por lo menos, mínimamente financiados) o buscan logros que pueden implicar cambios en las relaciones de poder y autoridad del sujeto en la organización (consecución de una carrera académica en términos de ascenso en la escala de cargos, ampliar el espacio del laboratorio, aumentar el número de investigadores a cargo, obtener financiamiento y equipamiento de valor significativo); pero, ambos tipos de pautas suponen el progreso del curriculum vitae, y aunque la última implica interacciones competitivas y desplazamiento de competidores en la organización, en ambos casos se trata de mecanismos de mantenimiento del rol. De manera que, la supervivencia del actor en la organización no depende de las estrategias de logro por encima de la exigencia mínima de mantenimiento porque la universidad no es una organización orientada hacia la productividad. En el segundo caso (“reproducción ampliada del rol”), las estrategias se orientan a la conquista de una mayor hegemonía en su organización, una elite de la disciplina, la especialidad o la facultad, que desarrolla una racionalidad de incremento de autoridad y dominación.
Estos perfiles -los docentes con prestigio científico internacional o académico local y aquellos que despliegan estrategias de reproducción ampliada del rol o de mantenimiento del rol- coexisten en el espacio universitario y están atravesados por la lógica del PROINCE que tiende a otorgar las categorías máximas a quienes poseen abultadas trayectorias docentes (y, lógicamente, realizan algo de investigación porque es un requisito del programa) y a los investigadores de Conicet con algún cargo docente, cuyos antecedentes en producción científica les permite acceder rápida y fácilmente a esas posiciones. En este sentido, podemos pensar que el PROINCE aplica un instrumento (categorización) que tiene a ser conservador o reproductivo,
es decir, que contribuye a profundizar las jerarquías existentes.

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

130

“Incentivo del incentivo”: reconocimiento y barrera de entrada al sistema

En sus inicios el programa fue recibido con ciertas resistencias en algunas universidades, sin embargo, debido a la debilidad estructural de la profesión académica y el bajo nivel de remuneraciones, en muchos casos se produjo una suerte de compulsión al programa (Carullo y Vaccarezza, 1997). Pasados 25 años desde su creación, cabe preguntarnos ¿por qué tantos docentes del país se presentan a la categorización y por qué muchos de ellos aceptan ser evaluadores?
Diversos enfoques teóricos han intentado indagar cuál es la motivación de los científicos en la realización de sus investigaciones. Merton (1942) consideraba que los científicos actúan según un ethos basado en 4 valores o normas imperativas (universalismo, comunalismo, desinterés y escepticismo organizado). Desde otra perspectiva, Latour y Woolgar (1995) sostenían que los científicos buscan credibilidad, es decir, acrecentar los créditos obtenidos por sus producciones invirtiéndolos en aquello que genere mayor retorno. En esta misma línea, Knorr-Cetina (2005) postuló que los científicos actúan en función de variables transcientíficas, redes sociales simbólicas, que van más allá de los límites de la comunidad o campo científico. Por su parte, Bourdieu (1992 [1976], 1999 [1997]) consideró que los agentes que actúan en el campo científico -que es un campo de producción simbólica y por lo tanto un espacio de poder- despliegan sus estrategias (de sucesión o de subversión) en función de la posición que ocupan y participan en una constante lucha por la dominación, científica y política a la vez. La búsqueda de la acumulación de saberes y conocimiento es inseparablemente búsqueda de reconocimiento y deseo de hacerse un nombre, la competencia técnica y el conocimiento científico funcionan de manera simultánea como instrumentos de acumulación de capital simbólico.
Estos postulados teóricos nos sirven para ir siguiendo pistas que nos ayuden a comprender cuál es la illusio que hace posible el funcionamiento del RPOINCE y que los agentes sigan apostando sus capitales en ese juego. En este sentido, el trabajo etnográfico que hemos realizado nos permite decir que la obtención de las categorías superiores del programa funciona como una fuente de prestigio, de reconocimiento, entre los miembros del campo académico y como estímulo y elemento de jerarquización de los docentes-investigadores. En los inicios del programa, el plus salarial promediaba el 40% del sueldo, pero actualmente el valor del incentivo es irrelevante en términos económicos: “…por ejemplo, un t it ular con ant igüedad y dedicación exclusiva cobraba más o menos $2000 por mes y el incent ivo era de $1000 por mes, y hoy sig ue siendo $1000 por mes, una cosa delirante, (…) ya no incentiva a nadie…”. (Entrevista, miembro Comisión Regional D, 23/11/16). De manera que continúa vigente casi exclusivamente la dimensión simbólica del incentivo que, en palabras de un evaluador se expresa de la siguiente manera: “el programa ayuda a poner orden en el claustro docente. O sea, todos somos profesores titulares pero no es lo mismo un t it ular categoría I que un t it ular categoría III, entonces todos somos t it ulares pero llegado el momento yo tengo tres plumas más que vos…” (Entrevista, evaluador Comisión Regional A, 24/08/16) o “…desde el punto de vista monetario, un reconocimiento en este momento no hay, así que lo único que queda es decir: “yo soy tres, soy dos, soy uno”. Y por otro lado, si eso es así, a mí me parece bueno, porque el que es II quiere pasar a I. Entonces o te propones para rector y tenes 120 puntos o empezas a hacer papers…”(Entrevista, miembro Comisión Regional E, 04/10/16). En universidades donde no existe una carrera docente10, el PROINCE funciona como un elemento de movilidad ascendente favoreciendo trayectorias en las cuales la universidad limita el ascenso en el cargo docente: el caso de un docente JTP que alcanza una categoría alta en el PROINCE. De manera que tenemos que pensar el incentivo en clave de capital simbólico, reconocimiento, tanto para los postulantes

10 Para profundizar sobre la conceptualización de la carrera docente y las universidades argentinas que la han implementado, ver De La Fare, M., Rovelli, L. y Lenz, S. (2012). Un estudio exploratorio sobre los regímenes de Carrera Académica/Docente en las Universidades Nacionales. VII Jornadas de Sociología de la UNLP. Departamento de Sociología de la Facultad de Humanidades y Ciencias de la Educación, La Plata. Disponible en: https://www.aacademica.org/000-097/459

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

131

como para los evaluadores, porque las condiciones materiales del programa no son atrayentes. Adelantamos este tema cuando analizamos la conformación de los comités evaluadores: “el programa de incent ivos … no genera sat isfacciones, el evaluador está totalmente desgastado, lo llamamos a evaluar durante 3 días (…) no podía decirle que venga el día anterior porque no me dejaban pagarle (…).. el evaluador se siente maltratado…y ¿el post ulante?, ya el solo hecho de cargar el currículum que en ese momento hubo como siete versiones, no lo terminaron de act ualizar nunca, quedaba mal, (…) el personal está agotado, entonces es un proceso gigante ...” (Entrevista, informante clave, 04/10/16).
Otro elemento que funciona como estímulo para participar en el programa tiene que ver con los requerimientos del sistema universitario y el engranaje administrativo del cual el PROINCE forma parte: “A ver, lo que hace que tantos nos presentemos a la categorización es que no nos queda otra, a ver, claro, porque si vos no estás categorizado, no podes acceder a dirección de proyectos en muchos casos, no podes acceder a dirección de becas, no podes acceder a concursar subsidios de proyectos de invest igación, a eso me refiero, es decir, el sistema nos cierra absolutamente. Por eso te digo, no es un tema económico ni simbólico, no, son las reglas del juego que nos viene imponiendo el sistema, así de simple.” (Entrevista, evaluador Comisión Regional E,
05/10/16). En definitiva, las categorías del PROINCE funcionan como barrera de entrada o acceso al financiamiento de proyectos, a formar parte de los comités
evaluadores, a mejorar las condiciones para los concursos, etc.

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

132

Comentarios finales

La bibliografía disponible en relación al PROINCE ha demostrado que este programa ha tenido efectos positivos en términos de expansión de las actividades de investigación y, simultáneamente, ha generado consecuencias menos favorables en el sistema universitario. Partiendo de estas indagaciones previas, nuestro trabajo se propuso avanzar hacia un análisis in sit u del funcionamiento del programa y de la percepción de quienes participan desde adentro: gestores, ejecutores, organizadores y evaluadores a quienes entrevistamos durante nuestro trabajo de campo. Lejos de cerrar nuestro análisis con juicios de valor o afirmaciones normativas en relación al PROINCE, nos propusimos generar interrogantes, indagar, desarmar, desmenuzar este programa con el objetivo de conocer sus implicancias y, en un futuro, poder elaborar recomendaciones que resulten superadoras. Intentaremos reflexionar sobre algunos puntos que nos resultaron relevantes en este sentido.
El análisis de los cambios en la normativa del programa y los vínculos entre las instancias decisorias en sus diversos niveles jerárquicos, mostraron tensiones y el carácter dinámico del proceso de definición de los criterios de evaluación donde la relación de fuerzas entre instituciones y disciplinas fueron marcando los cambios de rumbo de la política. Allí se percibe la preponderancia del CIN en la definición de los criterios de evaluación, aunque en permanente disputa con la Comisión Nacional de Categorización -dependiente de la SPU- (donde los miembros históricos de larga data mantienen poder de decisión por sobre los gestores vinculados a los cambios de gobierno). Por su parte, el Mincyt mantiene un rol pasivo demostrado, por ejemplo, en la no designación de sus representantes en la comisión asesora de la CNC. Algunas áreas disciplinares han logrado abrirse un lugar en la grilla de evaluación como es el caso de Arte que es evaluado de manera diferente al resto de las disciplinas en relación a su producción. A su vez, las comisiones regionales
presentan diferencias en cuando al modo de organizar las evaluaciones y la conformación de los comités evaluadores que demuestra el peso de la autonomía universitaria en la implementación del programa.
Luego de revisar los alcances de los sistemas de evaluación científica analizados por numerosos autores -que ponen el énfasis en las implicancias de la evaluación por pares (peer review) utilizada sobre todo para el caso de proyectos o propuestas de investigación-, podemos decir que el PROINCE desarrolla un tipo de evaluación ad-ho c que se diferencia de la evaluación por pares expertos. En efecto, la conformación de los comités evaluadores está basada en criterios disciplinares amplios (grandes áreas), pero no se seleccionan (ni es viable por la complejidad y masividad del programa) expertos en temas o perspectivas específicas. Además, no evalúan de forma directa la calidad de la investigación que producen los docentes postulantes en base al contenido, sino que lo hacen indirectamente a través de la ponderación de las revistas o las editoriales, los títulos de los trabajos, su extensión, su divulgación en eventos científicos, etc. En relación a las publicaciones, la normativa del programa establece mayor puntaje cuando las producciones tienen referato y, en los hechos, algunos evaluadores realizan la evaluación en base a este único criterio y otros aplican -además- criterios de indexación de las revistas (al estilo evaluación en CONICET). Estas diferencias están vinculadas a la pertenencia disciplinar e institucional de los evaluadores.
Sin embargo, esta tensión entre criterios de evaluación institucionalmente diferenciados no tiene una injerencia tan fuerte debido a -por lo menos- dos motivos. Por un lado, algunos evaluadores adaptan o acomodan los criterios al contexto en el cual desarrollan la evaluación: “…no estamos exigiendo la indexación, cosa que sí hacemos en CONICE T, t iene que ser indexada (…) nosotros eso ni lo miramos, porque si lo miráramos, tenemos que sacar a todo el mundo, bajarlos de categoría…” (Entrevista, evaluador Comisión Regional E, 06/10/16); “…lo que no hay que hacer es transportar los criterios del Conicet a la universidad y de la universidad al Conicet” (Entrevista, evaluador Comisión Regional A, 23/08/16). Por otro lado, el programa establece puntajes máximos y mínimos predefinidos para cada ítem que limita la autonomía de los evaluadores y contribuye a profundizar un tipo de evaluación burocrático- administrativa, más que cognitiva. Esto deriva en una suerte de rutinización de los procesos de evaluación donde los evaluadores aplican un instrumento de política sin demasiada claridad en relación a los objetivos y los principios que la justifican desde el punto de vista político institucional: “... ni nosotros mismos entendemos bien cuál es el fin de esta categorización, se llama categorización docente, pero es una categorización de docentes en el área de invest igación entonces tendría que llamarse categorización de invest igación docente” (Entrevista, evaluadora Comisión Regional E, 05/10/16).
En relación a los destinatarios del programa hemos advertido que conforman un grupo muy heterogéneo y desigualmente distribuido en términos regionales, institucionales y disciplinares lo cual es un claro reflejo del sistema universitario nacional. Lo que homogeniza este colectivo es la búsqueda del prestigio a través de la categorización: si bien el estímulo económico -que inicialmente sostuvo el programa- ha perdido su función, la totalidad de los docentes que desarrollan tareas de investigación buscan categorizarse e insertarse en este sistema de jerarquización docente adaptando sus curriculums a los requerimientos del programa. En paralelo, las categorías funcionan como puerta de entrada o acceso a determinadas cuestiones

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

133

fundamentales para la vida académica, como son los recursos financieros o subsidios, la dirección de proyectos de investigación, la posibilidad de cumplir el rol evaluador tanto de proyectos como de trayectorias, etc. Ambos factores sustentan el interés o las apuestas que los agentes realizan en torno al programa de incentivos.
Pusimos la lupa en el modo de organización y funcionamiento de la categorización advirtiendo que es un proceso costoso, antieconómico, cansador y desgastante para los postulantes, que encuentran engorroso el sistema de carga de datos y, además, deben asumir las consecuencias de un desfasaje producto de la distancia de uno o dos años entre el momento de la presentación (convocatoria) y el momento de la evaluación efectiva; y para los evaluadores, que se trasladan durante 3 o 4 días con viáticos escasos y evalúan un promedio de 40 postulaciones por día (lo cual hace difícil la evaluación por comparación), en formato papel desaprovechando las posibilidades que brindan los sistemas informáticos de carga de datos para evaluar y verificar información. Estos hechos contribuyen a la profundización de un tipo de evaluación burocrático-administrativa en detrimento de los aspectos cognitivos. Los pares evalúan de manera individual para economizar tiempo y esfuerzo, van puntuando cada ítem de la grilla sin analizar en profundidad el contenido de los proyectos o las publicaciones o la trayectoria global de los postulantes sino sumando puntos en una planilla, donde intervienen la habilidad del postulante para presentar la información y las rigideces de una grilla elaborada en función de criterios que buscan homogeneizar las especificidades de cada universidad y disciplina. En definitiva, la evaluación que se desarrolla en el marco del PROINCE tiende a consolidar jerarquías existentes y en ese sentido es una evaluación que tiende a ser conservadora. Los comités evaluadores disponen de un escaso margen para evaluar la calidad porque los criterios administrativos y preestablecidos dominan la diferenciación entre las categorías que son asignadas.
Finalmente, podemos decir que el PROINCE ha tenido y tiene injerencia en la definición de la carrera académica de los docentes-investigadores que son categorizados, pero no ha tenido la capacidad de incidir y determinar la orientación de los conocimientos producidos en las universidades. Este programa ha sido prolífero en la incorporación e instalación de la investigación, la evaluación y la acreditación como parte de la universidad pero, sin embargo, estos procesos encuentran sus límites en la propia dinámica de funcionamiento del programa que favorece la asignación de las categorías como resultado de una tarea más administrativa que cognitivo-evaluativa (en términos de una evaluación profunda y de calidad de las trayectorias de los docentes-investigadores) que, a su vez, ha garantizado la continuidad y eficacia del programa. Eficacia que es más visible en las prácticas de los sujetos -que van construyendo sus trayectorias en función de los requisitos
para categorizarse- que en el propio proceso de evaluación.

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

134

Bibliografía

Araujo, S. (2003). Universidad, investigación e incentivos. La cara oscura.
Buenos Aires: Ediciones Al Margen.
Badano, M.; Basso, R.; Benedetti, M. G.; Angelino, A.; Verbauwede, V.; Ríos, J.; Serra F. y Alcaino, G. (2005). Universidad pública y reforma neoliberal: configuración de nuevas subjetividades. Ponencia presentada en el XII Congreso Nacional de Estudios de Trabajo. Buenos Aires, 10-12 agosto. Disponible en: http://www.aset.org.ar/congresos/7/12025.pdf
Beigel, F. (2013). Centros y periferias en la circulación internacional del conocimiento. Nueva Sociedad No 245, mayo-junio, pp:110-123
Beigel, F. (2017). Científicos Periféricos, entre Ariel y Calibán. Saberes Institucionales y Circuitos de Consagración en Argentina: Las Publicaciones de los Investigadores del CONICET. Dados, vol.60, n.3, pp.825-865
Beigel, F. (2018). Las relaciones de poder en la ciencia mundial. Un anti-ranking para conocer la ciencia producida en la periferia. Nueva Sociedad, No 274, marzo-abril, pp:13-28
Beigel, F. y Salatino, M. (2015). Circuitos segmentados de consagración académica: las revistas de Ciencias Sociales y Humanas en la Argentina. Información, cultura y sociedad, N032, junio, pp: 7-31
Beigel, F; Gallardo, O, y Bekerman, F. (2018). “Institutional expansion and scientific development in the periphery. The structural heterogeneity of Argentina’s academic field (1983-2015)”, en Minerva. A Review of Science, Learning and Policy, Enero, disponible en: https://doi.org/10.1007/s11024-
017-9340-2
Bekerman, F. (2013). “The Scientific Field during Argentina’s Latest Military Dictatorship (1976-1983): Contraction of Public Universities and Expansion of the National Council for Scientific and Technological Research (CONICET)” en Minerva. A Review of Science, Learning and Policy, Volumen 51, Issue 4, June 2013, Pp. 253-269. Alemania. Disponible en http://link.springer.com/ article/10.1007/s11024-013-9227-9
Bekerman, F. (2018) “Distribución desigual de las capacidades de investigación en las ciencias sociales argentinas: una mirada relacional”, en Revista Iberoamericana de Ciencia, Tecnología y Sociedad – CTS, Volumen 13, Número 37, Febrero, pp: 257-288
Bianco, M.; Gras, N. y Sutz, J. (2014). Reflexiones sobre la práctica de la evaluación académica. En Bianco, M. y Sutz, J. (Coord.) Veinte años de políticas de investigación en las Universidad de la República. Aciertos, dudas y aprendizajes, (pp. 209-233). Montevideo, Uruguay: Ediciones Trilce.
Bourdieu, P. (1992 [1976]). El campo científico. Redes Nº 2, vol. 1, pp. 131-160. Bourdieu, P. (1999 [1997]). Intelectuales, política y poder. Buenos Aires: Editorial
Eudeba.
Bourdieu, P. (2003 [2001]). El oficio de científico. Ciencia de la ciencia y reflexividad. Barcelona: Anagrama.
Carrizo, E. (2011). Las políticas de C y T durante los años noventa: la triangulación entre el Conicet, la Secretaría de políticas universitarias, y la Agencia nacional de promoción científica y tecnológica en torno a la promoción de la investigación. Tesis de Maestría en política y gestión de la ciencia y la tecnología, UBA, septiembre de 2011.
Carullo J.C y Vaccarezza, L. (1997). El incentivo a la investigación universitaria como instrumento de promoción y gestión de la I+D. Redes. vol 4. núm. 10, pp. 155-178. Disponible en: http://www.redalyc.org/pdf/907/90711303007. pdf
Chiroleu, A., Suasnábar, C. y Rovelli, L. (2012). Política universitaria en la Argentina: revisando viejos legados en busca de nuevos horizontes. Buenos Aires: Universidad Nacional de General Sarmiento, IEC-CONADU.
Decreto N0 2427 del PEN, noviembre de 1993.

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

135

HORIZ O N TES SOCIOLÓGICOS N°5-2018 JUL-DIC

136

Fernández Berdaguer, l. y Vaccarezza, l. (1996). Estructura social y conflicto en la comunidad científica universitaria: la aplicación del programa de incentivos para docentes investigadores en las universidades argentinas. En M. Albornoz, P. Kreimer y E. Glavich (eds.). Ciencia y sociedad en América Latina, pp. 250-264. Buenos Aires: Editorial de la Universidad Nacional de Quilmes.
Gordon, A. (2013). La configuración de las políticas de ciencia, tecnología y educación superior en Argentina y Brasil en perspectiva comparada. En Unzué, M. y Emiliozzi, S. Universidad y políticas públicas ¿En busca del tiempo perdido? Argentina y Brasil en perspectiva comparada. (pp. 75-115) Buenos Aires: Imago Mundi.
Knorr-Cetina, K. (2005 [1981]). La fabricación del conocimiento. Un ensayo sobre el carácter constructivista y contextual de la ciencia. Buenos Aires: Universidad Nacional de Quilmes.
Kreimer, P. (2011). La evaluación de la actividad científica: desde la indagación sociológica a la burocratización. Dilemas actuales. Propuesta Educativa Número 36, Año 20, Nov 2011, Vol 2, pp. 59-77.
Latour, B. y Woolgar, S. (1995). La vida en el laboratorio. La construcción de los hechos científicos. Buenos Aires: Alianza.
Merton, R. (1942). The normative structure of science. The sociology of science: theoretical and empirical investigations, (pp. 267-280). Chicago, Estados Unidos: University of Chicago Press.
Mollas-Gallart, J. (2012). Research Governance and the Role of Evaluation A Comparative Study. American Journal of Evaluation 33 (4), pp. 583-598.
Naidorf, J. y Perrota, D. (2016) La cultura académica argentina frente al cambio de ciclo. Revista del IICE /39, pp.45-66
Ortiz, R. (2009). La supremacía del inglés en las ciencias sociales. Buenos Aires: Siglo XXI
Piovani, J. (2015) Reflexiones metodológicas sobre la evaluación académica.
Revista de Política Universitaria. Año 2, N0 2, p.2-11.
Prati, M. D. (2003). El impacto del Programa de Incentivos a partir de las percepciones de los académicos. Trabajo final de grado. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación. Disponible en: http://www.memoria.fahce.unlp.edu.ar/tesis/te.536/te.536.pdf
Resolución Ministerial N01543/14 Manual de Procedimientos
Resolución Ministerial No2307/97 Manual de Procedimientos
Ridel, B. (2011). La política de investigación científica en las Universidades Nacionales y los sujetos involucrados. Acerca de la percepción y mirada de los docentes-investigadores de la FCPyS (UNCuyo) y de los hacedores de la política pertenecientes a los Organismos del Estado 1990-2010. Trabajo final de grado. Universidad Nacional de Mendoza. Facultad de Ciencias Políticas y Sociales.
Rip, A. (1994). The Republic of science in the 1990’s. Higher Education 28 (1), pp.
3-23
Salatino, M. (2018) Más Allá de la Indexación: Circuitos de Publicación de Ciencias Sociales en Argentina y Brasil. DADOS – Revista de Ciências Sociais, Rio de Janeiro, vol. 61, no 1, pp. 255 a 287.
Sarthou, N. (2013). Los sistemas de evaluación de la investigación y la universidad en América Latina: ¿distintos sistemas para un mismo fin. Gestión Universitaria; 6; 1; 11, pp. 1-20. Disponible en http://www.gestuniv. com.ar/gu_16/v6n1a1.htm
Sarthou, N. (2014). Entendiendo la política pública a través de sus instrumentos: el Programa de Incentivos a Docentes Investigadores de Universidades Nacionales. Documentos y Aportes en Administración Pública y Gestión Estatal, vol. 22, nº 14, pp.71-102.
Sarthou, N. (2016). ¿Que veinte años no es nada? Cambios y continuidades en los criterios de evaluación del Programa de Incentivos a Docentes- Investigadores en la universidad argentina (1994-2014). Revista CTS, Nº 32, vol. 11, Mayo, pp. 85-110
Sarthou, N. y Araya, J.M (2015) El Programa de Incentivos a Docentes Investigadores en Argentina: a dos décadas de su implementación. Revista Ciencia, Docencia y Tecnología. Vol. 26, N0 50, pp. 1-34.
SPU (1999). La educación superior en la Argentina. Transformaciones, debates, desafíos. Buenos Ares: Ministerio de Cultura y Educación
SPU (2013). Anuario estadístico 2013. Buenos Ares: Ministerio de Cultura y Educación Disponible en: http://portales.educacion.gov.ar/spu/ investigacion-y-estadisticas/anuarios/
Sutz, J. (2014). Calidad y relevancia en la investigación universitaria: apuntes para avanzar hacia su convergencia. Revista Iberoamericana de Ciencia, Tecnología y Sociedad - CTS, vol. 9, núm. 27, septiembre, pp. 63-83. Disponible en: http://www.redalyc.org/articulo.oa?id=92431880004
Vaccarezza, L. (2000). Las estrategias de desempeño de la profesión académica.
Ciencia periférica y sustentabilidad del rol de investigador universitario. Redes, vol. 7, núm. 15, agosto, pp. 15-43
Vessuri, H. (ed.) (1984). Ciencia académica en la Venezuela moderna. Caracas: Fondo Editorial Acta Científica Venezolana

FABIANA BEKERMAN EL PROGRAMA DE INCENTIVOS A LOS DOCENTES INVESTIGADORES

“PUERTAS ADENTRO” PP 115-137

137

Enlaces de Referencia

  • Por el momento, no existen enlaces de referencia


Copyright (c) 2018 Fabiana Bekerman

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Revista Horizontes Sociológicos. ISSN 2346-8645. Web: http://aass.org.elserver.com/ojs/index.php/hs/index