Revista Invenio N° 26

Anuncio
La Universidad del Centro Educativo La­tinoa­me­ricano integra una
Institución Evan­gé­lica Metodista al servicio de la comunidad desde 1875. La UCEL tiene su origen en la iniciativa del Pastor Tho-
ISSN 0329-3475
Rosario • Argentina • Año 14 Nº 26 •JUNIO 2011
UCEL - GRADUACIÓN 2010
REVISTA DE INVESTIGACIÓN ACADÉMICA
UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO
Rosario • Argentina • Año 14 • Nº 26 • JUNIO 2011
mas B. Wood, destacado educador y ministro de la Iglesia Metodista en la Argentina, quien se propuso fundar una escuela moderna
hacia 1871. La misma abrió sus puertas el 28 de mayo de 1875
conducida por las maestras Louise Denning y Jennis Chapin, con
el respaldo activo del Pastor Wood, y así se inició el actual Centro
Educativo Latinoa­mericano. Por más de un siglo la institución fue
creciendo y en el año 1993 inauguró sus cursos la Universidad.
UCEL es una universidad joven pero sus raíces se nutren en una
tradición y procura brindar a sus estudiantes la mejor vía y las
más actuales herramientas para encarar con seriedad y solvencia
los desafíos que se vislumbran, ante el vértigo de los cambios
extraordinarios en la tecnología aplicada al desarrollo de los pueblos. La misión consiste en abrir, recorrer y enseñar las buenas
sendas que llevan hacia un futuro promisorio.
Universidad del Centro Educativo Latinoamericano con autorización definitiva otorgada
por el decreto Nº 979/06 de acuerdo con la Ley 24.521 de Educación Superior
Av. Pellegrini 1332 - S2000BUM Rosario - Argentina
Internet: www.ucel.edu.ar / e-mail: sec@ucel.edu.ar
INVENIO
historia educacional de prestigio. UCEL trata de hacer honor a esa
El gran diseño
Consumo de fibra alimentaria
El derecho como ciencia
Circularidad, arbitrariedad
y regreso infinito de razones
Una mirada argentina
a la economía brasileña
La creatina en la performance
deportiva
La “batalla de las monedas”
Difusión de tics en las pymes
Dehidrocongelación de frutas
Pizzas con harina de grano
entero de sorgo y mijo
Variación de las propiedades
superficiales a altas temperaturas
Consejo Asesor Académico
Dr. Carlos Marcelo Aldao Zapiola
Catedrático en la UBA, Universidad de San Andrés, UADE
y UCA. Ex Presidente de la Federación Mundial de Asociaciones de Administración de Personal (WFPMA).
Dr. Enrique Blasco Garma
Ph. D. en Economía. Universidad de Chicago. Ex economista del BID en Washington DC.
Dr. Heinrich Beck
Ex Rector, Decano y Catedrático emérito de la Universidad Otto Friedrich. Bamberg, Alemania.
Dra. María R. Marques
Doctora en Ciencias de la Alimentación. Maestría en Ciencias Farmacéuticas. Especialización en Nutrición Clínica.
Catedrática e Investigadora. UNIMEP, Brasil.
Dr. Emilio Alberto Navarini
Fellow of the International College of Surgeons. Chicago,
USA. Rector Instituto Universitario Italiano de Rosario.
Asesor Evaluador en la CONEAU.
Dr. Karl-Otto Apel
Profesor emérito de la Universidad de Frankfurt. Alemania.
Dra. Silvana Filippi
Catedrática e Investigadora. UNR-CONICET.
Dr. Tomaso Bugossi
Catedrático y Director de Investigaciones en la Facultad de
Ciencias de la Formación de la Universidad de Génova, Italia.
Dr. José Ricardo P. Sánchez
Catedrático e Investigador en la Universidad Autónoma
del Estado de México.
Dr. Cristiano Morini
Doctor en Ingeniería de Producción. Magister en Integración Latinoamericana. Docente e Investigador en UNIMEP, Brasil.
Dr. Fernando Aranda Fraga
Catedrático y Director de Investigación. Universidad de
Montemorelos, México.
Dr. Antonio Giuliani
Doctor en Administración. Coordinador de Maestría.
UNIMEP. Brasil.
Dr. Oscar Velásquez
Catedrático e Investigador. Universidad Católica. Santiago
de Chile.
Dr. Osvaldo Elias Farah
Doctor en Administración de Empresas. Piracicaba. Brasil.
Mg. María R. Cena
Magister en Tecnología de los Alimentos
Mag. María A. Marín
Magister en Ingeniería en Calidad. Investigadora en la
UNC
Dra. Miriam Coelho de Sousa
Nutrición y Ciencia de la Alimentación (University of
Reading, Inglaterra) UNINEP Brasil
INVENIO
REVISTA DE INVESTIGACIÓN ACADÉMICA
UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO
AUSPICIADA POR LA SECRETARÍA DE CULTURA DE LA NACIÓN
Año 14
Nº 26
Rector de la Universidad
Director
Secretario de Redacción
Asesor Financiero
Asesora Traducciones Idioma Inglés
Junio 2011
Dr. Ovidio Torres
CPN Rogelio T. Pontón
Dr. William R. Daros
CPN Rafael Beltramino
Prof. Fanny N. Sloer de Godfrid
Consejo Editorial
Lic. Carlos A. Fernández Souza CPN Arnolfo C. Martínez
Lic. Diego Marcos Abg. Efraím Torres
Psic. Stella M. Requena Dr. Ignacio A. Coria
Dr. Ángel Pérez Cortés
INVENIO es una publicación semestral. Los artículos de esta revista deben ser originales y
son sometidos al arbitraje y evaluación anónima y externa de pares. Estos artículos no reflejan
necesariamente la opinión de la Dirección de la revista y son de exclusiva responsabilidad de
sus autores. La Dirección de la revista tampoco se hace responsable del estilo literario y las
licencias lingüísticas que cada autor asuma en la redacción de su trabajo. La reproducción total
o parcial de esta revista, sin la autorización de los editores, viola los derechos reservados.
INVENIO está indizada por Latindex, por REDALYC (Red de revistas científicas de América Latina y el Caribe, España y Portugal): http://www.latindex.unam.mx y http://redalyc.
unamex.mx, por DOAJ Directory of Open Access Journals (Lund University Libraries, Suecia): http://www.doaj.org y por DIALNET (Red de revistas por la Universidad de La Rioja,
España) http://dialnet.unirioja.es. Se publican artículos en castellano, inglés y portugués.
Redacción y Administración de INVENIO: Universidad del Centro Educativo Latinoamericano.
Avda. Pellegrini 1332 - S2000BUM - Rosario - República Argentina
Tel./Fax: 54-341-4499292, 54-341-4261241
Internet: www.ucel.edu.ar / E-mail: publicaciones@ucel.edu.ar
Propietario: Asociación Universidad del Centro Educativo Latinoamericano / AUCEL
Toda correspondencia, colaboración o solicitud de suscripción debe dirigirse a la dirección de
esa revista. INVENIO se distribuye internacionalmente.
ISSN: 0329-3475 - Queda hecho el depósito que marca la Ley 11.723
Impreso en: Talleres Gráficos Fervil S.R.L.
Santa Fe 3316 - Tel. 0341 4372505 - E-mail: fervilsrl@arnet.com.ar
2000 Rosario - Argentina
3
Acerca del título de nuestra publicación
En Latín, “invenio” es un verbo transitivo de la cuarta conjugación, que significa “encontrar”,
“hallar”, “conseguir”, “adquirir”, “inventar”, “descubrir preguntando”, “enterarse de”... Ya
se ve que es una de esas palabras ricas en significados y connotaciones, y que, quizá como
ninguna otra, expresa todo eso que se pretende en la vida universitaria.
Así, por ejemplo, encontramos problemas, hallamos respuestas, conseguimos soluciones,
adquirimos información, inventamos proyectos, descubrimos preguntando la opinión ajena,
y nos enteramos de las preocupaciones de los otros. Todo eso significa “invenio”. El nombre
de nuestra revista es una invitación y un estímulo al trabajo constante y mancomunado de
todos los que conforman y colaboran con la tarea universitaria.
INVENIO tiene por finalidad brindar un espacio para las ideas producto de investigaciones
originales de UCEL y de otras entidades de investigación tanto de Argentina como del exterior.
4
INVENIO
Año 14
Nº 26
Junio 2011
ÍNDICE GENERAL
Nota del Director: El gran diseño
Rogelio Tomás Pontón............................................................................................
7
DERECHO
El derecho como ciencia
Silvana Mabel García..............................................................................................
13
FILOSOFÍA
Circularidad, arbitrariedad y regreso infinito de razones
Tito Flores...............................................................................................................
39
ECONOMÍA
Una mirada argentina a la economía brasileña. Los gobiernos de Cardoso y Lula
Diego N. Marcos - Gabriel D. Frontons.................................................................
47
Tema de actualidad: La “batalla de las monedas” y el precio de los alimentos
Rodolfo C. Rossi.....................................................................................................
73
ADMINISTRACIÓN DE EMPRESAS
Innovación empresaria en Argentina. Difusión de TICs en las PYMES -Segunda parteJuan Carlos Scarabino - Mariana Belén Colonnello...............................................
79
NUTRICIÓN
Fibra alimentaria: consumo en estudiantes universitarios y asociación
con síndrome de intestino irritable
Nadia Meisner - Karina Muñoz - Romina Restovich - María Elisa Zapata Silvina Camoletto - María Cecilia Torrent - Jorge Molinas....................................
91
5
Los efectos que produce la creatina en la performance deportiva
Paula Carrillo - María Victoria Gilli.......................................................................
101
INGENIERÍA EN TECNOLOGÍA DE LOS ALIMENTOS
Dehidrocongelación de frutas: estudio de los parámetros de calidad
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda.........................................
117
Desarrollo de una pre-mezcla para pizza a base de harina de grano entero
de sorgo y mijo.
Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino
Adriana Clementz ..................................................................................................
113
QUÍMICA
Variación de las propiedades superficiales a altas temperaturas
en óxidos de metales de transición soportados en alúmina, para su utilización
en reacciones catalíticas que involucren adsorción de gases
Ignacio Daniel Coria...............................................................................................
141
RESEÑA BIBLIOGRÁFICA...............................................................................
155
PENSAMIENTOS DE JOHN WESLEY............................................................
157
6
NOTA DEL DIRECTOR
El gran diseño
En el mes de setiembre del año 2010 se publicó el libro de Stephen Hawking y
Leonard Mlodinow The Grand Design, libro que fue ampliamente publicitado antes de su
aparición. Medios muy importantes del mundo, especialmente británicos, hicieron conocer
algunos extractos de la mencionada obra y ya desde antes de su publicación varios críticos
hicieron comentarios sobre sus bondades o no. En este corto artículo vamos a analizar la obra
no desde un punto de vista técnico, que no está a nuestro alcance, sino desde el llano.
Por provenir la obra de un distinguido físico como Hawking, no se puede negar que
ejerció desde el primer momento un gran impacto. Es que, como ya se dijo veinticinco años
antes cuando la publicación de Breve Historia del Tiempo del mismo autor, existen razones
que pueden explicar los éxitos de librería: a) que el libro no contenga fórmulas matemáticas
complejas y b) que en algunos de sus párrafos se aluda a Dios. En este sentido, Hawking
siempre se caracterizó, en sus obras populares, por cumplir ese objetivo.
Que Hawking es un físico notable no es algo creado por los medios. Basta consultar
al respecto la obra que en su homenaje le dedicaron colegas y discípulos al cumplir sus 60
aniversario. La obra fue editada por Gibbons, Shellard y Rankin y se tituló The future of
theoretical physics and cosmology. En sus casi 900 páginas, un sinnúmero de destacados
físicos analizan aspectos de las investigaciones del gran autor. En las páginas finales se listan
los artículos científicos escritos hasta ese momento por Hawking en número cercano a 180.
Para aquellos, como Richard Dawkins, que ven en la última obra de Hawking la sepultura final de la creencia en Dios, les recordamos que varios de los colegas y discípulos que
escriben en dicha obra homenaje, son teístas y eminentes cosmólogos, como George Ellis,
Don Page, Chris Isham y Paul Shellard. Probablemente, a ese número se agreguen otros.
Los científicos serios no creen que la ciencia tenga que demostrar la existencia de Dios, pero
tampoco su no existencia. En declaraciones a unos medios, el coautor de la obra. Mlodinow,
manifestó que no es la intención del libro mostrar la no existencia de Dios sino que el universo está autocontenido. En escritos anteriores Hawking había desarrollado lo que se llama
‘The Hartle-Hawking no-boundary proposal’.
Otra cosa que debemos agregar al comienzo de este comentario, es que en muchos
de sus libros y artículos populares, Hawking introduce expresiones sobre algunos aspectos
de carácter religioso que parecerían puestos para producir en los lectores ‘cierto escándalo’,
lo que se ve en su libro Breve Historia del Tiempo, pero especialmente en el que estamos
comentando.
El libro en la versión inglesa tiene aproximadamente 200 páginas. Poco tiempo después se editó en español por Crítica con el título de El Gran Diseño. Ambas ediciones están
finamente ilustradas y el libro está bien escrito. También hay que acotar que a lo largo de la
obra se hacen interrogantes a los cuales ningún ser humano puede estar ajeno. No hay duda
de que los mencionados puntos hacen sumamente atractiva su lectura. Pero también hay que
reconocer la crítica que le han hecho algunos de una cierta arrogancia en las contestaciones.
En una revisión de la obra se dice: “…he had an opinión about everything, and an answer to
every question. Unfortunately, he was also very naive”.
Hay que hacer notar, también, que hay afirmaciones muy discutidas, como la expre-
INVENIO 14 (26) 2011: 7-10
7
Rogelio Tomás Pontón
sión en las primeras páginas de que la “philosophy is dead”. Por supuesto, este comentario
puede ser algo sobre el que los autores están totalmente convencidos pero, llama la atención,
que en páginas posteriores, parecería que las preguntas de orden filosófico no le son ajenas.
El libro está compuesto de los siguientes capítulos:
1.
2.
3.
4.
5.
6.
7.
8.
El misterio del ser
Las reglas de la ley
¿Qué es la realidad?
Historias alternativas
La teoría del todo
Escogiendo nuestro universo
El milagro aparente
El gran diseño.
Sobre el final hay un glosario en el que se explican los términos técnicos usados en
los capítulos anteriores.
Cada uno de los capítulos se inicia con alguna historia extraída de la mitología de
distintos pueblos o de algún hecho significativo de la ciencia, a los que los autores agregan
comentarios muy sabrosos. Una línea que cruza una parte del libro es la oposición entre la
corriente atomista de Demócrito y de los jonios, a la cual los autores se alinean, y la posición
filosófica de Platón y Aristóteles, seguida en la edad media por autores como Santo Tomás de
Aquino. Los historiadores del pensamiento filosófico, probablemente, no estarán de acuerdo
con algunos de los comentarios que en muchos casos parecen sumamente simples como, por
ejemplo, cuando se dice de Aristóteles que rechazaba “la idea de una ciencia basada principalmente en la observación” (pág. 30).
El principio básico explicitado a lo largo del libro es que el universo se crea a sí
mismo de la nada, idea que no es nueva ya que el físico alemán Pascual Jordan, coautor de
la mecánica cuántica (por otro lado, un autor que era evangélico), la desarrolló hace muchos
años. Se comenta que Albert Einstein, cuando la escuchó por primera vez, se horrorizó en
extremo de la misma. La idea también había sido presentada por Edward Tryon a comienzos
de los ’70. En un artículo publicado por la revista Nature hablaba de la ‘emergencia del universo del vacío cuántico’.
El argumento básico, para expresar la mencionada idea, es que la gravedad tiene que
tener energía negativa. Dicen los autores de libro que comentamos “que a escala del conjunto del
universo, la energía positiva de la materia puede ser contrarrestada exactamente por la energía
gravitatoria negativa, por lo cual no hay restricción a la creación de universos enteros” (pág. 203).
Los autores dicen explícitamente: “Como hay una ley como la de la gravedad, el
universo puede ser y será creado de la nada” (pág. 203).
En el texto que hemos reproducido hay una contradicción. Los autores presuponen
que el universo nace de la nada, pero al mismo tiempo que hay una ley de la gravedad que
actúa en esa nada. Si estamos hablando de la nada, ¿de dónde proviene la ley de gravedad?
Es probable que cuando los autores hablan de la ‘nada’ están suponiendo que no es la
nada tal como lo entendemos normalmente ya que en esa nada hay gravedad.
Por otro lado, los autores interpretan que las leyes tienen una habilidad mágica de
hacer cosas. Respecto a esto dice el matemático John Lennox:
8
INVENIO 14 (26) 2011: 7-10
El gran diseño
“Laws themselves do not create anything, they are merely a description
of what happens under certain conditions” (las leyes en sí mismas no crean
nada, ellas son meramente una descripción de lo que pasa bajo ciertas condiciones).
Una ley científica nunca hace que algo pase, lo único que hace es describir lo que
pasa. La gravedad causa que los planetas giren en órbita alrededor del sol y que las manzanas
caigan hacia el centro de la tierra, pero no la ley de gravedad. Lo que hace ésta es describir
como trabaja la gravedad.
Si no hay nada, no hay gravedad, y si no hay gravedad no hay ley de la gravedad.
Dice John Lennox:
“Isaac Newton’s laws of motion in themselves never sent a snooker ball racing across the Green baize. That can only be done by people using a snooker
cue and the actions of their own arms” (las leyes del movimiento de Isaac
Newton en sí mismas no hacen que la bola de billar cruce el paño verde. Esto
solo puede hacerse por la gente usando el taco de billar y la acción de sus
propias manos).
Para explicar la creación del universo de la nada, los autores recurren a la llamada
Teoría-M y prometen explicar como es esto pero, lamentablemente, a lo largo del libro no
encontramos una explicación clara sobre qué significa esa teoría.
Retrocedamos unos pasos en nuestra explicación. En las primeras décadas del siglo
XX los físicos desarrollaron dos teorías fundamentales: la teoría general de la relatividad
(teoría de la gravedad), desarrollada por Albert Einstein, y la teoría de la mecánica cuántica, desarrollada por Heisenberg, Born, Jordan, Dirac y Schrödinger. La primera apuntaba a
explicar los fenómenos macro del universo y fue la base que posteriormente otros autores,
como Friedmann y el Padre George Lemaitre, usaron para explicar la expansión del universo
desde el llamado Big Bang de hace alrededor de 13.700 millones de años. La segunda teoría
tuvo un éxito aún mayor en la explicación de los fenómenos de la microfísica. El gran problema que lo ocupó a Einstein en sus últimos años fue el desarrollo de una teoría del todo,
es decir la unificación de la teoría de la relatividad y del electromagnetismo, pero sin éxito.
Tengamos en cuenta que en los primeros instantes del universo éste era infinitamente
pequeño y es por eso que la mecánica cuántica interviene en su explicación. Desde hace casi
cuarenta años, una gran cantidad de físicos (entre los cuales hay que mencionar al eminente
físico argentino, Juan Maldacena), para lograr la mencionada unificación, desarrollaron diversas teorías sobre las llamadas cuerdas y finalmente varios de esos enfoques, fuertemente
matemáticos, dieron lugar a la Teoría-M.
Las cuerdas serían los componentes más pequeños del universo y vibrarían continuamente dando lugar a lo que divisamos como partículas. Estas cuerdas necesitan al menos
10 dimensiones. En los años noventa, buscando unificar cinco teorías de la supercuerdas, el
gran matemático y físico Edward Witten propuso la Teoría-M y en la misma se identifican 11
dimensiones, actuando la llamada supergravedad entre membranas.
¿Esta Teoría-M es aceptada sin discusión por todos los físicos? ¿Está probada experimentalmente?
¿Se podrá probar en el futuro?
INVENIO 14 (26) 2011: 7-10
9
Rogelio Tomás Pontón
Los anteriores son interrogantes no resueltos. No todos los físicos la aceptan y algunos de ellos, como Lee Smolin, la han atacado recientemente. Veamos lo que dice el eminente
matemático y físico compañero de Hawking, Roger Penrose, en su reciente libro Ciclos del
Tiempo analizando distintas teorías sobre el pre Big Bang:
“Apenas menos fantasiosas, en mi humilde opinión, son esas propuestas cosmológicas que dependen en su operación de las ideas de la teoría de cuerdas y su dependencia -tal
como está la teoría de cuerdas- de la existencia de dimensiones espaciales extra” (pág. 175).
Pero tampoco está probada experimentalmente y según muchos físicos es difícil que
se pueda probar en el futuro. Los aceleradores de partículas (como el recientemente inaugurado por el CERN en Ginebra), necesitarían ser muchísimo más grandes, casi imposibles
de construir, y esto lo dice un físico experimental que trabajó en el CERN como es Russell
Stannard, de quién recomendamos el pequeño libro citado en la bibliografía.
En base a la Teoría-M, Hawking y Mlodinow, deducen la existencia de cuasi infinitos
universos (10 a una potencia de 500), que explicarían el ‘ajuste fino’ del llamado principio
antrópico, es decir una serie de constantes (hasta seis según el libro del gran astrofísico Martin Rees, Sólo 6 números) que gobiernan el universo físico. De existir un solo universo no se
podría explicar la existencia de la vida.
De existir múltiples universos queda otro interrogante: ¿no tendrán todos ellos las
mismas constantes? De ser así, habría que explicar el ‘ajuste fino’ de esas constantes.
De todas maneras, hay que aclarar que aun existiendo cuasi infinitos universos (teoría del multiverso), que Hawking y Mlodinow explican en los últimos capítulos del libro bajo
comentario, la fe en Dios no se ve resentida, por el contrario. Un eminente discípulo de Hawking, Donald Page, de fe cristiana, lo sostiene en numerosos artículos que se pueden bajar
de internet. También otros autores, como Michael Heller, eminente físico y sacerdote polaco,
quien analiza el tema de los universos múltiples en su reciente obra Ultimate Explanations of
the Universe en donde se puede rastrear la idea de un Dios creador de diversos mundos en un
autor del siglo tercero como fue Orígenes de Alejandría.
Hace algo más de veinte años, Hawking y Hartle habían desarrollado una teoría por
la cual, al nivel del tiempo de Planck (10 a una potencia de -43 segundo) del big bang, el
tiempo pasaba a ser una dimensión espacial y, como las otras tres dimensiones espaciales se
curvaba. En ese caso no había tiempo antes de ese tiempo. Esta idea está presente también en
el libro que comentamos. Algunos autores la objetan diciendo que no es más que un desarrollo matemático pero no real (ver por ejemplo los análisis de Stoeger y Heller en los trabajos
citados en la bibliografía).
La obra de Hawking llega a la conclusión de que el universo se hizo solo de la nada
y esto no puede probarlo. De hecho la teología enseña que Dios hizo el mundo (el universo
o los multiversos) de la nada y, en definitiva, estarían diciendo lo mismo, con la diferencia
de que el teísmo muestra que detrás de esa nada está la acción de Dios, mientras que para
Hawking, detrás de la nada no sabemos si hay alguien o no, ya que no es tarea de la ciencia
el demostrarlo, y eso no puede probarlo.
Probablemente tenga razón el eminente astrofísico Martin Rees que enseña que no
hay que hacerle mucho caso a las opiniones teológicas de Hawking. Aun demostrando que el
mundo se hizo de la nada, como también enseña la teología judeocristiana e islámica desde
hace miles de años, el tema de la existencia o no de Dios está fuera del alcance de la física y
la obra que comentamos no logra darnos la respuesta.
Rogelio Tomás Pontón
10
INVENIO 14 (26) 2011: 7-10
El gran diseño
REFERENCIAS BibliogrÁfICaS
Hawking y Mlodinow. El Gran Diseño. Barcelona, Crítica, 2010.
Lennox, John C. God and Stephen Hawking. Oxford, Lion Hudson plc, 2010.
Penrose, Roger. Ciclos del Tiempo. Barcelona, Debate,2010.
Heller, Michael. Ultimate Explanations of the Universe. Berlín Heidelberg, Springer-Verlag, 2009.
Hay un sinnúmero de comentarios del libro “El Gran Diseño” en distintos medios. De ellos recomendamos de Roger Penrose, The Grand Design, en FT.com, del 4 de septiembre y del físico experimental Russell Stannard,
The Grand Design, en NewStatesman, del 14 de octubre.
Para una introducción a la teoría de la gravedad, de la mecánica cuántica y de las cuerdas recomendamos de Russell Stannard su libro The End of Discovery, Oxford University Press, 2010.
Un más detallado libro sobre la teoría de las cuerdas y la M-Theory es el de Brian Greene, El Tejido del Cosmos:
espacio, tiempo y la textura de la realidad. Barcelona, Crítica, 2006.
Desde un punto de vista más teológico y filosófico, recomendamos el libro de varios autores Creation and the
God of Abraham, Cambridge University Press, 2010, donde entre otros se puede leer el trabajo de William
R. Stoeger S.J. The Big Bang, quantum cosmology and creatio ex nihilo. El Padre Stoeger es un cosmólogo
del Observatorio Vaticano.
INVENIO 14 (26) 2011: 47-71
11
12
El Derecho como Ciencia
Silvana Mabel García*1
RESUMEN: La condición científica del Derecho, no tiene aún consenso unánime y el
debate entre los pensadores del derecho permanece vigente y con fuerza. Las dificultades
en este tema se presentan desde el momento mismo en que se intenta explicitar el concepto
y contenido de la “Ciencia del Derecho” pues la propia definición del objeto de la ciencia
resulta controvertida. A lo largo de los siglos se han propuesto diferentes visiones acerca de
la Ciencia del Derecho, su finalidad y contenido y todas ellas contribuyeron en su formación. Existen también tesis negatorias del carácter científico del Derecho.
Palabras clave: derecho - condición científica - ciencia del derecho
ABSTRACT: Law as a science
Law scientific status has not reached unanimous consent and thinkers still passionately
debate about whether law should be considered a science at all. Difficulties arise from
the very moment an explanation of the concept and content of the “Science of Law” is
attempted since the mere definition of the object of the science remains controversial. Different versions regarding the Science of Law, its purpose and content have been suggested
throughout the centuries and all of them had contributed to forming it. On the other hand,
some theses refuse to grant Law a scientific character.
Key words: law - scientific condition - science of law
1. Introducción
Recurrir a la epistemología, como filosofía de la ciencia, en su enfoque hacia la
problemática del saber jurídico, implica adoptar una actitud reflexiva y crítica respecto de la
propia ciencia que tiene por objeto al Derecho.
Y ya que nunca antes en nuestro desempeño profesional nos habíamos formulado la
pregunta acerca de la condición científica o no de nuestro saber (quizás la dábamos por cierta), nos pareció importante abocarnos en estas páginas, a la Ciencia del Derecho.
Al abordar la bibliografía sobre el tema, advertimos que contrariando nuestro “pre* Abogada. Egresada de la Facultad de Derecho de Rosario (UNR). Doctora en Derecho de la Facultad de Derecho de Rosario (UNR). Magíster en Asesoramiento Jurídico de Empresas de la Universidad Austral de Rosario.
Profesora adjunta en Carrera de Grado de la misma Facultad en “Derecho Comercial III” y en Carrera de Postgrado en esa Casa de Estudios – Carrera de Especialización en Derecho Empresario - y en la Facultad de Ciencias
Económicas y Estadística de Rosario (UNR) - Carrera de Especialización en Sindicatura Concursal –. Docente
Adscripta a la Cátedra de Derecho Comercial II (“Concursos”) de la Facultad de Derecho y Ciencias Sociales del
Rosario (U.C.A.). Autora de dos libros “Régimen de Inhabilitaciones por Quiebra” (Bs. As., La Ley, 2002) y “Extinción de las obligaciones por quiebra” (Bs. As., Astrea, 2010). Miembro del Instituto Iberoamericano de Derecho Concursal; Miembro del Instituto de la Empresa de la Academia Nacional de Derecho y Ciencias Sociales de
Córdoba; Miembro del Instituto de Derecho Concursal del Colegio de Abogados de Rosario. Ejerce activamente
la profesión de abogada en la ciudad de Rosario (S. Fe.). E-mail: holand-garcia@arnet.com.ar
INVENIO 14 (26) 2011: 13-38
13
Silvana Mabel García
juicio” respecto de la cuestión, la situación científica del Derecho, no tiene aún consenso
unánime y que todavía el debate entre los pensadores del derecho permanece vigente y con
fuerza.
Sobre el final del trabajo, exponemos nuestro punto de vista y contribuciones personales con relación al tema en estudio (punto 5), no sin antes analizar los cuestionamientos que
se formulan tanto en torno al concepto, como al objeto y contenido de la Ciencia del Derecho
(punto 2). Especial atención prestamos a los aportes que en su evolución fueron realizando
los grandes forjadores de esta ciencia y exponemos ciertas visiones particulares (punto 3),
considerando asimismo algunas de las posiciones que discuten el carácter científico de este
saber (punto 4).
Concluimos con algunas reflexiones (punto 6)
2. El carácter problemático de la delimitación del concepto, objeto y contenido de la
Ciencia del Derecho
Dice Bertrand Russell: “la ciencia es lo que conocemos y la filosofía es lo que no
conocemos”1.
Sin embargo, definir “la ciencia”, esto es, aquello que conocemos, no es una tarea
sencilla, entre otros motivos, porque la expresión es ambigua, pues se utiliza tanto para describir las actividades consideradas científicas (el proceso) como para el conjunto de proposiciones que constituyen el resultado de tales actividades (el producto); y porque adolece
también de vaguedad o imprecisión, ya que no existe un conjunto de propiedades necesarias
y suficientes para el uso del término, lo que deja una zona de penumbra constituida por actividades a las cuales vacilaríamos en aplicar o no el término.
Intentando alguna conceptualización, podemos tomar la siguiente: “saber científico,
supone un sistema de conocimientos, ciertos y probables, respecto de un determinado sector
de objetos de la realidad universal, a los que es posible acceder a través de una adecuada
fundamentación metodológica”2. Y en punto a esta última característica, nos resulta gráfica la
explicación de Ricardo Guibourg cuando dice que una ciencia, en ese sentido, no es otra cosa
que un sistema de decisiones metodológicas, en el que se insertan los datos de la realidad,
una vez identificados e interpretados por el mismo sistema, como los libros de la biblioteca
se ordenan en los estantes. Y evoluciona o se modifica del modo en que los estantes se construyen, cuando lo creemos preciso, a la medida de los libros que tenemos o imaginamos que
tendremos algún día3.
Pero si conceptualizar a la ciencia en general es una tarea ardua, aún más lo es explicitar el concepto y contenido de la “Ciencia del Derecho”. Confluyen en esa dificultad
numerosos obstáculos:
En primer término, se señala que es de por sí equívoco individualizar con la misma
palabra (“derecho”) tanto al objeto de estudio (el derecho) como al estudio del objeto (es
decir la ciencia).
En segundo término, y he aquí quizás la mayor dificultad, la propia definición del
objeto de la ciencia no logra consenso. Así se resalta que, en pocas disciplinas científicas
como en el derecho, la polémica respecto de su objeto propio ha sido motivo de tanta opinión
divergente. Ni los físicos, ni los químicos, ni los historiadores, tendrían tanta dificultad para
definir el objeto de su estudio como tienen los juristas.
14
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
Contribuyen a tal incertidumbre las siguientes circunstancias:
El carácter ambiguo del término “derecho”. En efecto, la misma palabra tiene varios
significados relacionados estrechamente entre sí. Así, puede ser entendida como “derecho
objetivo”, es decir, como sistema o conjunto de normas; como “derecho subjetivo”, esto es,
como facultad, atribución, permiso, etc; y finalmente como el estudio o investigación (ciencia) del derecho a que hacemos referencia.
También, que la expresión “derecho” es vaga. No es posible enunciar propiedades
que deban estar presentes en todos los casos en que la palabra se usa. Algunos señalan el carácter coactivo, otros que debe tratarse de directivas promulgadas por una autoridad, y están
quienes eligen como propiedad la de consistir en reglas generales.
Y finalmente, que la expresión “derecho” tiene una carga emotiva. En efecto, “derecho” es una palabra con significado emotivo favorable, pues se dice que nombrar con esta
palabra un orden social implica condecorarlo con un rótulo honorífico y reunir alrededor de él
las actitudes de adhesión de la gente4. Cuando una palabra tiene carga emotiva, ésta perjudica
su significado cognoscitivo.
Volviendo a la dificultad en cuanto a la propia definición de lo que se entiende por
“derecho”, tampoco existe consenso sobre cuál es el contenido concreto del derecho, cuál
es el “ser” del derecho.
Acudiendo a las respuestas que los juristas han dado en el devenir histórico, podemos encontrar tantas como autores, porque cada uno tiene su concepción del derecho.
En un intento de sistematización, podríamos agruparlas en diferentes corrientes de la
filosofía jurídica, según la concepción del derecho que defienden. Básicamente, sin perjuicio
de reconocer que puede implicar un simplismo quizás inadecuado, ellas serían tres: el iusnaturalismo, el iusformalismo (o positivismo) y el iusrealismo5. Sin ignorar la existencia de
toda una gama de concepciones intermedias, como son la analítica, la deóntica, la egológica,
la estructuralista, la funcionalista, la histórica, la iusmarxista y la semántica, entre otras.
Cada una de estas metodologías cuenta con una concepción propia del derecho al
resaltar un elemento o característica de él.
Así, la corriente iusnaturalista, tanto en su vertiente laica como racional, reduce
al derecho a un contenido intrínsecamente justo o natural, ya que para ella el derecho es un
valor justo o natural. El iusformalismo (o positivismo jurídico) por su parte, en su insistencia
por la separación estricta del derecho de la ética, moral y religión, y en la independencia de
toda consideración valorativa, limita al derecho a un análisis de las interrelaciones lógicas de
las normas jurídicas. El derecho, se reduce a las normas jurídicas, sin importar su contenido
justo o no.
Por último, el iusrealismo, considera el derecho como un hecho eficaz o real, y la
Ciencia del Derecho por lo tanto, es una ciencia empírica, que se debe ocupar del ser de la
conducta humana, entendida como un conjunto de fenómenos o hechos eficaces o reales.
El objeto de estudio no son las normas ni los valores, sino los hechos. Se acepta el carácter
normativo de la ciencia, no por estar compuesta de normas vigentes, sino porque los hechos
sociales se refieren forzosamente a esas normas.
Con un propósito digamos conciliador, y tal vez pretencioso, al apuntar a un “ideal”
del derecho que sea al mismo tiempo, justo o natural, vigente o formal y eficaz o real, surge
la teoría tridimensional del derecho, para la cual el derecho conserva las tres dimensiones
(valor, norma y hecho) pero estrechamente unidas entre sí, en relaciones de esencial implicación, no existiendo uno que sea más importante que los otros, pues no sólo se exigen recípro-
INVENIO 14 (26) 2011: 13-38
15
Silvana Mabel García
camente sino que actúan como uno solo.
A las dificultades ya reseñadas, cabe agregar una última: la propia descripción de lo
que forma el contenido de la Ciencia del Derecho.
Así, la expresión “Ciencia del Derecho” o “Ciencia Jurídica” o “Jurisprudencia”
(utilizadas como sinónimos) se emplea en tres sentidos6:
- En un sentido amplísimo, abarcando todas las disciplinas jurídicas, incluso la Filosofía del Derecho y se habla así de “las” Ciencias del Derecho. En este sentido, las Ciencias
Jurídicas abarcarían, además de la propia Filosofía del Derecho, a la Teoría general del Derecho (para quienes la consideran disciplina independiente de la Filosofía del Derecho), la
Historia del Derecho, la Sociología del Derecho, la Psicología del Derecho y la Ciencia del
Derecho Comparado.
- En un sentido semirrestringido, comprendiendo todas las ciencias jurídicas, con
exclusión de la Filosofía del Derecho.
- En sentido estricto, como sinónimo de Dogmática Jurídica, entendida como la ciencia que tiene por objeto la exposición ordenada y coherente de los preceptos jurídicos que se
hallan en vigor en una época y un lugar determinados, y el estudio de los problemas relativos
a su interpretación y aplicación.
3. Los aportes en la evolución de la Ciencia del Derecho7
La Ciencia del Derecho se ha ido construyendo y enriqueciendo en el devenir histórico con el aporte de muchos y muy encumbrados filósofos del derecho. Haremos referencia
a algunos de los más importantes, sin pretensiones de exhaustividad ni completitud, con el
objetivo de exponer al lector algunas de las diferentes visiones que de la Ciencia del Derecho,
su finalidad y contenido se han propuesto.
3.1 La construcción de la Ciencia del Derecho durante el siglo XIX.
3.1.1 La Escuela Histórica del Derecho
La moderna Ciencia del Derecho comienza con Federico Carlos de Savigny y su
pensamiento llega hasta nuestros días. Además de su importante contribución a la teoría de
las fuentes y de la interpretación, cuando en las sentencias de los tribunales y en los escritos
doctrinarios, se hace hoy referencia a los “institutos jurídicos”, se está de algún modo evocando el aporte de Savigny a la Ciencia del Derecho.
Los “institutos jurídicos”, a los que Savigny conceptúa como aquellos modos de
comportamiento o relaciones de vida concretos y a la vez típicos (como el matrimonio, la
patria potestad, la compraventa) que son observados en general por los ciudadanos como jurídicamente vinculantes, son, en el pensamiento de Savigny, el punto de partida y fundamento
de la evolución del Derecho.
En efecto, el “instituto jurídico” es un todo lleno de sentido, cambiante con el tiempo,
de relaciones humanas típicamente entendidas, que como tal, no es posible comprobar completamente mediante la adición de las reglas jurídicas particulares que se refieren a él. Ello
así, porque estos “institutos jurídicos” no resultan del conjunto de reglas jurídicas, sino que
más bien las reglas jurídicas se infieren de la contemplación total de los institutos jurídicos
por una abstracción. Por tanto, dado que las reglas contenidas en la ley, independientemente
16
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
de toda configuración conceptual, tienen su fundamento más hondo en la contemplación de
los “institutos jurídicos”, no pueden, según Savigny, ser entendidas únicamente a partir de
ellas mismas, sino partiendo de la contemplación del instituto jurídico, pues entre tal instituto
y la forma abstracta de la regla particular existe una “desproporción” cuya superación está
permanentemente encomendada a la Ciencia del Derecho.
Es imperioso aludir además, a la consideración por Savigny del método sistemático.
Desde un principio es característico en él exigir una combinación del método “histórico”
y el “sistemático” como nota caracterizante de la ciencia jurídica. El primero, considera la
génesis de cada ley precisamente en una situación histórica determinada. El segundo, intenta
comprender como un todo coherente la totalidad de las normas jurídicas y de los institutos
jurídicos que le sirven de base.
Afirma Savigny la existencia de una conexión orgánica de los institutos jurídicos
que están vivos en la conciencia general. “Todas las instituciones jurídicas están ligadas en
un sistema y sólo pueden ser comprendidas por completo dentro del magno contexto de este
sistema.”8 La idea de sistema significa el desarrollo de una unidad en una variedad, que, de
este modo, es conocida como una conexión de sentido. Esta unidad es pensada por Savigny
como un “organismo”, como una totalidad de sentido inherente a la variedad sólo mostrable
en ella y por ella.
Las reglas jurídicas particulares, opina Savigny, solo posteriormente serán deducidas
por abstracción de los “institutos jurídicos”, por ello éstos han de estar siempre presentes al
intérprete en la contemplación, si es que quiere entender rectamente la norma jurídica.
Es inevitable referir a la importancia del “concepto” en la evolución de la Ciencia
del Derecho.
Fue Jorge Federico von Puchta quien con clara firmeza, encaminó la Ciencia del
Derecho de su tiempo por la vía del sistema lógico en el sentido de una “pirámide de conceptos” y de este modo, decidió su evolución hacia la “jurisprudencia de conceptos”. De hecho,
enseñó el método del pensamiento formal-conceptual, radicando allí su importancia para la
metodología jurídica y el desarrollo de la Ciencia del Derecho.
Enseña Puchta, que las normas jurídicas particulares que forman el derecho de un
pueblo, se hallan entre sí en una conexión orgánica, y la misión de la Ciencia del Derecho, es
conocer las normas jurídicas en esa conexión, condicionándose unas a otras y procediendo
unas de otras, a fin de poder seguir la genealogía de las normas particulares hasta la altura de
su principio y asimismo descender los principios hasta sus últimas consecuencias. Se logra
así, en el entendimiento de Puchta, un conocimiento sistemático capaz de seguir hacia arriba
y hacia abajo la derivación de cada concepto a través de todos los escalones intermedios
que han participado en su formación. La genealogía de los conceptos indica por tanto, que
el concepto supremo del que son derivados todos los demás codetermina con su contenido
todos los restantes.
La contribución de la “jurisprudencia de conceptos” fue la elaboración de un sistema
abstracto conceptual, que estaba construido según el principio de la subordinación de conceptos siempre más especiales bajo otros de muy amplia extensión (ámbito de aplicación) pero
de contenido siempre más reducido, y que debía permitir, no sólo asignar a cada concepto su
lugar dentro del sistema total, sino también subsumir otros conceptos bajo ellos y finalmente
tanto hechos como consecuencias jurídicas concretas. Este desarrollo encontró su reflejo en numerosas divisiones conceptuales (como las de Derecho público y privado; derechos absolutos y
relativos; nulidad y mera anulabilidad de un negocio jurídico y muchos otros).
INVENIO 14 (26) 2011: 13-38
17
Silvana Mabel García
3.1.2 La Ciencia del Derecho bajo la influencia del concepto positivista de ciencia
Durante el transcurso del segundo tercio del siglo XIX la Ciencia del Derecho, como
todas las ciencias del espíritu, tomó parte del viraje general hacia el positivismo. Como movimiento contrario tanto al Derecho natural racional deductivo, como al romanticismo y la
Escuela Histórica, el positivismo se caracteriza especialmente por aspirar a desterrar de la
ciencia, toda metafísica, toda ética material y toda doctrina de valores, y por restringir la
ciencia estrictamente a los hechos y a su “legalidad” empíricamente observable.
Sólo reconoce como ciencia de un lado, las ciencias causales basadas en la experiencia, de otro lado la lógica y la matemática como doctrina de las formas puras de los cuerpos
y de los números. Según la concepción positivista, lo único que es accesible al conocimiento
científico, prescindiendo de la lógica y la matemática, son los hechos perceptibles junto con
la “legalidad”, corroborable experimentalmente, que en ellos se manifiesta. En este planteamiento aparece decisivo el modelo de las ciencias naturales “exactas”. En esto el positivismo
es “naturalismo”. Por tal motivo, la Ciencia del Derecho ha de ser elevada a una “ciencia
verdadera” fundamentándola, lo mismo que la ciencia natural, sobre hechos indubitables.
Ningún pensador jurídico ha llegado a ser, junto con Savigny, tan importante para
el desarrollo de la Ciencia del Derecho como Rudolf von Ihering.
La obra jurídica de la vida de Ihering se caracteriza por una notable evolución, aunque algunos autores en cambio la señalan como marcada por una profunda cesura.
En la etapa correspondiente a su obra “El espíritu del Derecho Romano” Ihering, imbuido todavía por el modo de pensar de las ciencias naturales “exactas” de su tiempo, aporta y
culmina la “jurisprudencia formal de conceptos” aunque a diferencia de Puchta, no parte de un
concepto fundamental ya dado previamente al derecho positivo y constitutivo del mismo, sino
que su procedimiento de formación de los conceptos es exclusivamente inductivo: la tarea
sistemática de la Ciencia del Derecho, consiste ahora, según él, en descomponer los institutos
jurídicos particulares y las normas jurídicas a ellos relativas en sus elementos lógicos y en
destilar limpiamente éstos, y luego reconstruir con ellos, por combinación, tanto las normas
jurídicas ya conocidas como también otras nuevas. El resultado de esta descomposición y
recomposición lógicas, es que la ciencia obtiene, en lugar de una cantidad infinita de normas
jurídicas de las más diversas clases, un número claro de cuerpos simples, pudiendo recomponer con ellos cuando sea preciso, las normas jurídicas particulares. Pero la utilidad no se limita
meramente a esta simplificación, los conceptos jurídicos obtenidos no son meras disociaciones
de las normas jurídicas dadas sino que existe una ventaja aún mayor en el incremento del derecho conseguido por este medio a partir de sí mismo, de un crecimiento desde dentro. Mediante
la combinación de elementos diferentes, la ciencia puede formar nuevos conceptos y normas
jurídicas: los conceptos son productivos, pues engendran otros nuevos. Y compara Ihering esta
tarea, de formación de los conceptos jurídicos elementales, mediante análisis y abstracción,
con las letras del alfabeto: “la idea del alfabeto se basa en la descomposición y en la reducción
de lo compuesto a sus elementos; el alfabeto ha surgido de la observación de que el lenguaje
ha formado toda su riqueza de palabras mediante una combinación diversa de ciertos sonidos
fundamentales, y de que por tanto, el descubrimiento y designación de estos sonidos fundamentales es suficiente para componer con ellos cualquier palabra...Lo que son las palabras en
el lenguaje, eso son las relaciones jurídicas en el derecho. La tarea es aquí como allí el descubrimiento de estos elementos, la formación de un alfabeto”9.
Sin perjuicio de muchas otras importantes, la contribución de la que sin duda es
18
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
imposible prescindir en la evolución posterior de la Ciencia del Derecho, es la que el jurista
alemán desarrolló en su obra “El fin del Derecho”. La idea fundamental expuesta en esa obra,
es la de que el fin es el creador de todo el derecho, que no existe ninguna norma jurídica que
no deba su origen a un fin, esto es, a un motivo práctico debido al cual es creada que por
lo tanto determina su entendimiento. Sin embargo, no es el legislador quien determina el fin
de la norma, pues según afirma Ihering, éste actúa no tanto como persona individual cuanto
como representante de un querer o aspiración vinculantes, comunes a todos los miembros de
la comunidad jurídica, pero que proviene o se halla en la sociedad. Es asimismo la sociedad
el sujeto final de todas las normas jurídicas: el derecho es la norma coactiva estatal al servicio
de un fin social. Por ello, para comprender una norma jurídica, no ha de suceder lo que la
lógica postula, sino lo que postula la vida, el tráfico, el sentimiento jurídico, porque la vida
no existe a causa de los conceptos sino que los conceptos existen a causa de la vida. Sostiene
Ihering: “para el uso académico puede ser muy cómodo en vez de exponer minuciosamente
las relaciones o los motivos prácticos, a los que una norma jurídica debe realmente su origen,
idear un punto de vista al que aquélla se subordine como consecuencia lógica, pero en esto
no ha de verse el fundamento real de las normas jurídicas y de los conceptos”.
Estas ideas, contienen el comienzo de un programa para una Ciencia del Derecho
“pragmática”.
Por lo demás, Ihering no reconoce ninguna jerarquía objetiva de los fines sociales,
éstos resultan más bien según él, únicamente de las distintas necesidades vitales de las sociedades concretas históricamente existentes.
A partir de Ihering entonces, (y es éste su indiscutible aporte a la evolución de la
Ciencia del Derecho) no podrá ya prescindirse de la idea de que en toda norma jurídica tiene
que ser considerada también su función social: toda norma quiere configurar, en la parte que
le corresponde, la existencia social, y por este motivo está referida, según su sentido, a un
fin social.
Con el objetivo de reivindicar para la Ciencia del Derecho, de modo similar a la
lógica y la matemática, un objeto puramente ideal y restringirla a aquello que al respecto
es necesario según las leyes del pensamiento, emprendió Hans Kelsen su “Teoría pura del
Derecho”. Pero Kelsen siguió siendo positivista en cuanto expulsó de la Ciencia del Derecho
toda consideración valorativa y con ello, la cuestión acerca de la valoración pertinente en
cada caso, por estimar que no es contestable científicamente. La “Teoría Pura del Derecho”,
representa el más grandioso intento de fundamentación de la Ciencia del Derecho como ciencia que ha visto nuestro siglo.
Kelsen afirma que la Ciencia del Derecho no tiene que ver, no primariamente, con la
conducta efectiva de los hombres o con los fenómenos síquicos como tales, sino con normas
jurídicas. Por ello no puede ser una ciencia natural que describe hechos e investiga su enlace
causal. Pero entonces, si es que es realmente una ciencia, sólo puede ser, según el concepto
positivista de ciencia, una doctrina de las “formas puras” del Derecho.
El objetivo de Kelsen es construir una ciencia descriptiva del derecho que tenga
como objeto el aspecto normativo del derecho. Es, por ello, una ciencia descriptiva que tiene
como objeto el lenguaje normativo jurídico. En ese sentido, se puede decir que es una ciencia
que no pretende imponer normas, no pretende prescribir sino que lo único que pretende es
describir un objeto normativo.
El punto de partida de Kelsen, desde el cual pretende fundamentar la independencia
metódica de la Ciencia del Derecho, es la distinción entre juicios del ser y juicios del deber ser.
INVENIO 14 (26) 2011: 13-38
19
Silvana Mabel García
El Derecho es un orden normativo que pertenece, en cuanto tal, a la categoría ontológica del
deber ser. No es lo mismo, sostiene, afirmar que los contratos se cumplen (o no se cumplen)
que sostener que los contratos deben cumplirse en virtud del Derecho. La primera afirmación
contiene un juicio de hecho, la segunda contiene un enunciado sobre algo que debe suceder.
Para Kelsen, la Ciencia del Derecho no tiene que ver con la conducta fáctica de los
hombres, sino solamente con lo jurídicamente preceptuado. Por ello, no es una ciencia de
hechos, como la sociología, sino una ciencia de normas; su objeto no es lo que es o lo que
sucede, sino un complejo de normas. Su carácter científico sólo está garantizado si se limita
estrictamente a su misión y si mantiene “puro” su método de toda mezcla de elementos ajenos a su esencia, es decir, de todo préstamo de la sociología, de la sicología, pero también de
toda influencia de “dogmas” ya sean de naturaleza ética o religiosa. La pureza metodológica
significa que la Ciencia del Derecho tiene que someterse ascéticamente a una depuración
de todos aquellos elementos, históricos, sociológicos, políticos, iusnaturalistas, metafísicos
que pertenecen a otros órdenes del conocimiento. Como conocimiento “puro” no tiene que
perseguir fines prácticos inmediatos, sino más bien eliminar de su consideración todo aquello
que no guarde relación con la peculiaridad de su objeto como complejo de normas, todos los
contenidos procedentes de la esfera del ser o del ámbito de la ética. Kelsen quiere liberar a la
Ciencia del Derecho de todos los elementos ajenos a ella. La “Teoría pura del Derecho” sólo
tiene que ver con el derecho positivo.
Como lo entiende Kelsen, la Ciencia del Derecho tiene que ver con normas, es decir, con un deber ser, pero no se ocupa de los contenidos, sino de la estructura lógica de las
normas jurídicas, examina el sentido, la posibilidad y los límites de un enunciado jurídico en
general y la clase y modo de su realización.
La unidad, la coherencia formal de todas las normas de un derecho positivo, se basa
en que todas ellas pueden ser referidas a una norma única, como último fundamento de su
validez, a la “norma fundamental”. Esta norma no implica otra cosa que el establecimiento
de un supuesto de hecho productor de normas, la legitimación de una autoridad que establece
normas o lo que es lo mismo, una regla que determina cómo deben ser producidas las normas generales individuales del orden basado en esa norma fundamental. Dicha norma no es
establecida, sino que es necesariamente presupuesta por la Ciencia del Derecho para poder
interpretar como un orden jurídico el material de normas que le es dado.
También interesa referir a la visión de Kelsen sobre la labor de interpretación del
Derecho por parte de la Ciencia Jurídica, que según afirma, no es igual a la tarea de interpretación por el órgano aplicante: en la aplicación del Derecho por un órgano jurídico, la interpretación del derecho aplicable siempre va unida a un acto de voluntad, por el que el órgano
aplicable elige una entre las varias posibilidades puestas de manifiesto por la interpretación
de la norma. Otra cosa sucede con la interpretación del derecho por la Ciencia Jurídica. Esta
no es producción del derecho, a diferencia de la interpretación por los órganos jurídicos (si
bien tratándose de la sentencia judicial, sólo para el caso concreto), sino “pura constatación
cognoscitiva del sentido de las normas jurídicas”. Como tal, sus posibilidades son limitadas;
en especial es, según Kelsen, inepta para colmar las lagunas supuestas en el derecho. La
Ciencia Jurídica concreta tiene que dejar a la autoridad que aplica, el derecho de elección
(sólo determinable por consideraciones políticas) entre las interpretaciones igualmente posibles desde el punto de vista jurídico-científico.
20
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
3.1.3 La escuela de la libre investigación científica
En las postrimerías del siglo XIX y apenas comenzando el siglo XX, contra el abuso
de la lógica formal en el campo de la ciencia jurídica se alzó Francisco Gény, en un intento de
acercar el derecho a la vida, a la realidad. En su obra “Método de interpretación y fuentes del
Derecho privado positivo” intenta Gény sacar la Ciencia Jurídica de los estrechos límites del
texto expreso y frío de la ley impugnando el postulado fundamental de que la ley escrita debe
bastar para todo, principio al que califica como de “fetichismo de la ley escrita y codificada”. En la búsqueda de la reconstitución del método y la elaboración de una teoría de las
fuentes, realiza un prolijo y completo estudio de cada una de ellas, a saber: la ley escrita y
su interpretación; la costumbre; la autoridad o tradición cuyo valor investiga, y por último
culmina sus estudios con el aporte original de su teoría que llama de “libre investigación
científica”.
Señala Gény que puede ocurrir que se presenten casos no previstos en la ley y en
cuyas circunstancias será necesario disponer de otro instrumento que revele al jurista la solución adecuada al caso planteado; es allí cuando emerge la preponderante función de la libre
investigación científica para alcanzar los elementos objetivos del derecho.
Gény explica su método del siguiente modo: “investigación libre” toda vez que existe sustracción a la acción propia de una autoridad positiva; “investigación científica”, al propio tiempo, porque no puede encontrar bases sólidas más que en los elementos objetivos que
sólo la ciencia puede revelar. El método jurídico debe tener por preocupación dominante,
descubrir él mismo, en defecto de la ayuda de las fuentes formales, los elementos objetivos
que determinarán todas las soluciones exigidas por el derecho positivo.
¿Dónde habrán de encontrarse los elementos objetivos del derecho?, “en la naturaleza de las cosas”, expresión que Gény se encarga de dilucidar: “las relaciones de la vida social,
llevan en sí las condiciones de su equilibrio y descubren ellas mismas las normas que deben
regirlas. Nada al parecer, tan sencillo según esto, como considerar de cerca todas las relaciones humanas, para discernir entre las que merezcan reconocimiento jurídico y encontrar su
ley en ausencia de toda fuente formal”10.
Queda así expuesto en lo fundamental, el sistema de Gény, que ha tenido la virtud
de señalar el amplio horizonte abierto a la Ciencia Jurídica, libertándola de la concepción
tradicional que la creía encerrada totalmente en el código, de tal manera que hasta incluso se
pretendió cerrar al jurista el camino de la interpretación.
3.2 La Ciencia del Derecho en la primera mitad del siglo XX
Al comienzo del siglo XX, Rudolf Stammler introduce en Alemania un movimiento
filosófico que se caracteriza por el apartamiento del positivismo. En general, unió a ello la
afirmación de la historicidad del Derecho, aspirando así a una síntesis de dos grandes corrientes espirituales: el “Derecho Natural” y el “historicismo”.
En su “Teoría de la Ciencia del Derecho”, Stammler se propone hacer concebible la
Ciencia del Derecho y alejarla totalmente del reproche de carecer de valor científico. Para
ello, afirma, son sólo apropiados “los conceptos fundamentales del Derecho”, y el esclarecimiento de estos conceptos fundamentales, de un modo seguro y completo, es por tanto una
tarea decisiva para todo aquel que se preocupe por el Derecho y por la Ciencia del Derecho.
Explica Stammler que las ideas jurídicas aparecen en la conciencia siempre ordenadas
INVENIO 14 (26) 2011: 13-38
21
Silvana Mabel García
ya de un modo determinado, es decir, formadas. Existen pues, “formas puras” del pensar jurídico
que condicionan lógicamente todo conocimiento jurídico particular, pero ellas mismas no están
condicionadas por ninguna materia particular y hallan su unidad en el concepto de Derecho en sí.
El concepto de Derecho es una manera y modo puros y condicionantes para ordenar la conciencia
volitiva, de los que depende toda posibilidad de calificar de jurídica una cuestión particular.
En la concepción de Stammler, el Derecho es un modo del querer, pues ordena los
fenómenos según la forma del pensar “fin y medios”. A diferencia de las ciencias de la naturaleza o causales (que ordenan los fenómenos según la forma del pensar “causa y efecto”)
la Ciencia del Derecho es una ciencia de fines. Por ello sus conceptos los forma de manera
plenamente autónoma, independientemente de las reglas del conocimiento científico-natural.
Al lado de la lógica formal y de la lógica que rige para el conocimiento científico-natural, se
ha de exigir una lógica de la ciencia de fines, de la cual resulta la independencia metódica de
la Ciencia del Derecho.
Que se trate de una ciencia de fines no significa que Stammler pretenda, como Ihering, explicar el origen causal de las normas jurídicas (a partir de fines sociales) pues esto
sería considerar el Derecho como un fenómeno natural. Lo que importa es la peculiaridad
lógica de las consideraciones jurídicas como tales. Esta peculiaridad consiste en un enlace
específico de fines y de medios. Siempre que se pregunta por la génesis del derecho o de las
normas jurídicas particulares, se presupone ya lógicamente el concepto de derecho como un
determinado modo de establecer fines y medios. El concepto de derecho es el de un determinado modo de establecer fines.
Por otra parte, los conceptos jurídicos fundamentales puros son, según Stammler,
irradiaciones invariables del absolutamente firme concepto de derecho y se obtienen deductivamente a partir de él (lo presuponen y lo confirman), y nunca pueden ser derivados de
las particularidades de un querer jurídico condicionado; en cambio los conceptos jurídicos
condicionados sólo se obtienen por abstracción del limitado contenido de un derecho históricamente dado.
Vemos así, dos ideas de Stammler que han llegado a ser de trascendental importancia
para la metodología de la Ciencia Jurídica y que podemos resumir del siguiente modo: la primera, es la de la independencia metódica de la Ciencia del Derecho frente a las ciencias de la
naturaleza, que se basa en que la Ciencia del Derecho no pregunta por las “causas” sino por
los “fines” y por el sentido de una norma jurídica o de una institución. La segunda idea, más
importante aún, es la de que pertenece a la esencia del derecho el orientar y ordenar según
una medida superior, la de la idea del derecho, la profusión de fines posibles en una situación
dada, siempre limitados y con frecuencia contradictorios. Esta idea, posibilita así, la superación del positivismo y la consagración del método teleológico en la Ciencia del Derecho.
Correspondió a Rickert, en su intento de independizar aún más las ciencias del espíritu de las ciencias de la naturaleza, y con ello, apartarse definitivamente del concepto positivista de ciencia, la introducción del concepto de “valor” en la metodología de las primeras,
aunque sin dar aún una respuesta a la cuestión de qué es un valor.
A la división lógica de las ciencias en generalizadoras e individualizadoras, se añade una división objetiva, según consideren su objeto libre de valor y de sentido (ciencias
naturales) o referido a valores y por ello, con sentido (ciencias histórico culturales, como
precisó Rickert). Los valores, el sentido y el significado, no podemos percibirlos, sino sólo
comprenderlos, al interpretar los objetos percibidos. Según ésto, “naturaleza” es el ser libre
de significado, sólo perceptible, no comprensible; en cambio “cultura”, es el ser pleno de
22
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
significado, comprensible.
Fue Emil Lask el primero que aplicó estas ideas a la metodología de la Ciencia del
Derecho, al comienzo del siglo XX. Según entiende, la Ciencia del Derecho es una rama de
las ciencias culturales empíricas, por tanto se ocupa de sucesos o relaciones que se destacan
entre la masa de lo que acontece por su relevancia en relación con determinados valores
culturales.
El contenido adecuado a la idea de las normas, resulta según Lask, de su referencia
a valores y fines socialmente reconocidos. Lask habla por ello, de un método de la jurisprudencia referido a valores y a fines. Subraya que todo lo que incide en el ámbito del derecho
pierde su carácter naturalista libre de referencia a valores. La formación de conceptos jurídicos está siempre “teleológicamente teñida”.
Gustav Radbruch continúa la obra de Lask, agregando ahora el contenido y la conexión de sentido de los valores mismos relevantes para el derecho, llevando así a cabo, el
tránsito de una filosofía de los valores únicamente formal a otra material.
Para Radbruch, cuyas explicaciones metodológicas fueron tenidas muy en cuenta
por la doctrina jurídico penal de su tiempo, el Derecho es, en cuanto fenómeno cultural, aquel
dato que tiene el sentido de realizar la “idea del Derecho”, que es el valor central al que en última instancia está referido todo Derecho como algo con sentido. Y como la idea del Derecho
no es otra cosa que la de justicia, Radbruch también dice que el Derecho es la realidad que
tiene el sentido de servir a la justicia. Esto no quiere decir que todo Derecho positivo tenga
también que ser necesariamente derecho justo, pero en cuanto Derecho, se halla, según su
sentido, bajo la exigencia de la justicia: está orientado a esta idea.
La fenomenología y la filosofía existencial, han tenido su aplicación más consecuente al campo del Derecho en la llamada “teoría egológica del Derecho” obra de Carlos Cossio.
El Derecho es para Cossio un objeto egológico, o sea es sólo la conducta, la libertad
metafísica fenomenalizada. Toda la teoría jurídica tradicional ha considerado el Derecho
como norma. Cossio rompe con el normativismo, incluso con el kelseniano, y afirma que el
Derecho es conducta. Afirmar otra cosa, es para Cossio, racionalismo, pero el racionalismo,
dice, es incompatible con el supuesto fundamental de la Ciencia Jurídica moderna: el ser una
ciencia de experiencia. Pues una ciencia de experiencia implica partir de un dato real empíricamente intuible, y el único dato jurídico susceptible de ser captado sensiblemente en el
derecho es la conducta. La conducta en su interferencia intersubjetiva con otras conductas es
lo que hay de real en el campo del derecho y por eso es toda la realidad del derecho.
La norma, para Cossio, es sólo el instrumento conceptual por medio del cual se
conoce la realidad del derecho que es la conducta. La norma no es objeto sino concepto, y
como tal sólo puede ser abordada por la Lógica, como teoría de los conceptos, pero no por la
Ciencia Jurídica cuyo objeto es el Derecho. El objeto de la Ciencia Jurídica pues, sólo puede
ser el derecho en su realidad, o sea la conducta, y no las normas que únicamente son el instrumento para su conocimiento.
Podemos afirmar así, que para Cossio no existe una filosofía del derecho distinta de
la Ciencia Jurídica, o mejor, la filosofía del derecho sólo puede ser una Teoría de la Ciencia
Jurídica. Pues del Derecho sólo hay, o un conocimiento vulgar, o un conocimiento científico, que es el de la Ciencia Dogmática del derecho. Pero en torno al derecho que es objeto
de la Ciencia Jurídica pueden plantearse cuatro interrogantes: 1- en qué consiste su ser, y la
respuesta es conducta; 2- cómo se piensa jurídicamente, problema de la lógica jurídica formal: se piensa por medio de conceptos, que son las normas. 3- cuándo es real y efectivo el
INVENIO 14 (26) 2011: 13-38
23
Silvana Mabel García
pensamiento jurídico, cuándo se conoce jurídicamente algo; problema de la lógica jurídica
trascendental, problema de la validez y vigencia del derecho; 4- problema del sentido puro
del derecho, axiología jurídica, teoría de los valores jurídicos: pues la conducta por ser libertad, posee un valor, es una valoración, y el derecho es una valoración, consiste en valores;
pero así como toda ciencia presupone una ontología, una teoría del objeto, así también toda
valoración empírica presupone una doctrina sobre el sentido puro del valor11.
El valor positivo de la teoría egológica consiste, no sólo en la revalorización de la
filosofía del derecho llevada a cabo en nuestro medio, sino también en que es, ante todo, una
meditación auténticamente filosófica sobre el problema de la Ciencia del Derecho, de la que
no podrá prescindirse, aunque sea para polemizar con ella, al abordar la cuestión sobre la
cientificidad de la Ciencia del Derecho.
3.3 Algunas visiones de la Ciencia del Derecho en la segunda mitad del siglo XX.
Al iniciarse la década de los cincuenta, Alf Ross y Norberto Bobbio se propusieron la
construcción de una Ciencia Jurídica que tuviera todos los atributos necesarios para hacerla
acreedora del título de “verdadera ciencia”, y en ambos casos, sobre una base empírica12.
3.3.1 La Ciencia del Derecho según Alf Ross
Alf Ross, como representante del realismo jurídico, interpreta la vigencia del derecho en función de la eficacia social de éste.
Según explica, la Ciencia Jurídica (a la que atribuye la condición de ciencia empírica) consta de aserciones acerca de las normas jurídicas (del tipo: “F es una ley vigente”) y que
consiguientemente (al igual que se hace con las aserciones de las ciencias empíricas) deben
ser entendidos y considerados con arreglo al principio de verificación, en virtud del cual, una
proposición sólo tiene sentido cuando puede ser verificada (ello es conteste con la aspiración
de Ross de poder atribuir al derecho la condición de ciencia social empírica).
Y según entiende Ross, el procedimiento de verificación de las proposiciones de la
Ciencia Jurídica estará constituido por el comportamiento que a su respecto asuman los tribunales que deciden las controversias jurídicas.
Es decir: la validez de una proposición de la Ciencia Jurídica (y por tanto su auténtico carácter científico) está en función de su aplicabilidad en la práctica de los tribunales.
Así entonces, cuando un tribunal aplica una norma jurídica respecto de la cual la Ciencia del
Derecho había postulado su vigencia o la condición de válida, el hecho de su aplicación implica la constatación de la certeza de las afirmaciones que sobre su validez o vigencia había
emitido la Ciencia Jurídica.
Sin embargo, en el pensamiento de Ross, las decisiones judiciales no tienen la función de atribuir vigencia a las normas, sino de verificar proposiciones de la Ciencia Jurídica
que afirman tal vigencia. El comportamiento de los tribunales entonces, se relaciona con el
problema de la verificación de la aserción de la Ciencia del Derecho y no con el problema de
la validez o vigencia de la norma jurídica. Por lo que Ross admite la posibilidad de considerar
derecho vigente al aún no aplicado, porque la aplicación de la norma no es un requisito de su
vigencia sino sólo un criterio de verificación positiva de la proposición doctrinal (aserción)
que nos ha indicado que esa norma estaba vigente o era válida.
Pero además, para Ross, las aserciones acerca de la vigencia de la norma jurídica
24
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
(contenido de la Ciencia del Derecho) pueden ser consideradas verdaderas si hay motivos
suficientes para pensar que esa norma será aplicada en las decisiones futuras, aún cuando
todavía no lo hayan sido (por no haber recaído resolución alguna que contemple la regla a la
que se refieren) o incluso cuando no podrán ya serlo (porque la disposición legislativa sólo
estuvo un corto tiempo en vigor). Bastará con que contemos con otras creencias ya verificadas que nos ilustren acerca de la mentalidad de los jueces y nos hagan considerar razonable
que la afirmación acerca de la validez o vigencia era verdadera.
Señala también Ross, el carácter probabilista y relativo de las aserciones de la Ciencia Jurídica: aun cuando podamos citar una o más resoluciones judiciales que verificasen la
exactitud de la proposición “A” de la Ciencia Jurídica, ésta continuaría siendo en principio
una incierta predicción respecto de decisiones futuras, pues la aserción verificada, para mantener su validez, se encontrará siempre precisada de nuevas verificaciones: una vez probada
y confirmada para el pasado, después de su verificación, vuelve a problematizarse, presentándose como una nueva aserción que a su vez debiera ser verificada. Es decir: la verdad de una
proposición jurídica determinada (por haberse verificado judicialmente) no supone necesariamente que nos encontremos en situación de predecir con certeza razonable el resultado de
una acción concreta futura aun cuando conozcamos los hechos relevantes.
De esta forma Ross entiende que las proposiciones de la Ciencia del Derecho no pueden pretender nunca una absoluta certeza, sino que tan solo pueden sostenerse con un mayor
o menor grado de probabilidad, que puede ir desde la virtual certeza a la probabilidad escasa.
La probabilidad será alta y la aserción poseerá un correspondiente alto grado de validez, si la
predicción se basa en una doctrina muy asentada y se sustenta en una serie continua de precedentes jurisprudenciales indiscutidos. O por el contrario, en el caso de que la predicción se
base en un precedente singular y dudoso, o en los principios o la razón, la probabilidad será
baja y a la aserción le corresponderá un grado de validez igualmente bajo.
Sin embargo, según Ross, la relativización de los asertos de la Ciencia Jurídica, no
inhabilitan a ésta para que siga siendo auténtica ciencia, pues por el contrario, la relatividad
del conocimiento científico es algo que reclama como propia toda la epistemología contemporánea, nacida de la crisis de las ciencias tradicionales que se consideraban de valor
absoluto.
Sintetizando: Alf Ross concibe la Ciencia del Derecho como un conjunto de proposiciones verificables empíricamente que, para ser tomadas en cuenta, requieren verse avaladas por las decisiones de jueces y magistrados, constituyendo así el comportamiento de los
tribunales, la fuente de prueba por excelencia de que son ciertas o falsas las aserciones de la
ciencia del Derecho que indican que una norma está vigente o es válida.
3.3.2 La Ciencia del Derecho según Norberto Bobbio
Norberto Bobbio se ha ocupado en muchas ocasiones y en momentos diferentes de
la Ciencia Jurídica, modificando incluso su propio pensamiento al respecto, al compás de los
cambios que se han ido produciendo en la problemática correspondiente. En este punto, en
consonancia con al autor que guía nuestro análisis, se toma como referencia los desarrollos
de Bobbio en “Scienza del diritto e análisi del linguaggio” publicada por vez primera en 1950
y “Teoría della scienza giuridica” del mismo año. Más recientemente, quizás como una evolución de su postura expuesta en las obras citadas, Bobbio acepta la posibilidad de concebir,
junto a una auténtica Ciencia del Derecho, una jurisprudencia que no es ciencia, pero que es
INVENIO 14 (26) 2011: 13-38
25
Silvana Mabel García
la que practican generalmente los juristas. Entiende así que es posible afirmar la existencia
de una duplicidad de saberes, uno: el científico, que responde a los esquemas de cientificidad
que acepta la comunidad científica, y otro: la realidad del quehacer del jurista13.
En las obras a que hacíamos referencia al inicio, intenta Bobbio atribuir un carácter
empírico particular y diferente a la Ciencia del Derecho. Sostiene así que la ciencia jurídica
no es una ciencia formal (como la lógica y la matemática) pero tampoco es propiamente una
ciencia empírica (como la física, la química, la sociología y la economía) pero forma parte,
pese a ello, de la gran familia de las ciencias empíricas y al mismo tiempo participa de ciertas
características de las ciencias formales.
El motivo por el cual Bobbio propone la inclusión de la denominada Ciencia del
Derecho en el conjunto de las ciencias empíricas, es su creencia de que cuando se estudian
las proposiciones normativas y por tanto, entidades lingüísticas, la actividad presupone la
referencia a los comportamientos reales (entidades extralingüísticas) de los que la proposición ha sido extraída. De ahí que en la Ciencia Jurídica, no se trate tanto de conocer hechos
reales, como de interpretar el sentido de determinadas afirmaciones (prescripciones) acerca
de la realidad.
Sin embargo, como el legislador para poder establecer comportamientos posibles
(prescribiéndolos), recaba la noción de estos comportamientos posibles de la realidad social,
el científico del derecho no puede comprender el significado de una prescripción sin remitirse, de algún modo, a la realidad social de la que la misma prescripción ha extraído tanto su
razón de ser como las nociones de que está compuesta. El intérprete, si quiere comprender el
significado de una norma, observa (de la misma manera que podría hacerlo un historiador o
un sociólogo) el comportamiento real, y de este conocimiento extrae los elementos indispensables para desarrollar su función interpretativa.
De este modo, normatividad y empiricidad no son términos incompatibles. Por el
contrario, las proposiciones jurídicas son a un mismo tiempo normativas derivadas de la
experiencia.
Entonces, si ha de entenderse que toda investigación que reconozca a la experiencia
como fuente última de conocimiento es merecedora de la condición de ciencia empírica, resulta razonable asignar a la Ciencia del Derecho tal calificación, ya que su objeto (las reglas
jurídicas de comportamiento) se hallan dentro de la experiencia.
Sustancialmente, lo que Bobbio intenta afirmar, es que la Ciencia del Derecho (la
interpretación-sistematización de los preceptos del legislador) están inmersos en la sociedad
y en la historia.
Agrega también Bobbio que una investigación se constituye en científica, cuando
superada y abandonada la ambigüedad y la indeterminación del lenguaje común, se presenta
como un sistema coherente y cerrado de proposiciones definidas, por lo que todo análisis que
pretenda el título de ciencia, debe contar también con una parte eminentemente crítica, que
consiste en la construcción de un lenguaje riguroso.
Por tanto, siendo que la Ciencia del Derecho tiene como objeto el lenguaje del legislador, será entonces el análisis del lenguaje el que construye y reconstruye de modo riguroso
ese discurso; y corresponderá entonces al intérprete la transformación de ese lenguaje del
legislador en un lenguaje riguroso, purificándolo, esto es, determinando el sentido de los términos que aparecen en las prescripciones jurídicas. Ello así, pues el lenguaje del legislador
no es necesariamente riguroso, ya que ni han sido establecidas perfectamente las reglas de
su formación, ni las expresiones lingüísticas son precisas en cuanto a su referencia objetiva.
26
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
Tampoco aparece necesariamente sistematizado, siendo necesaria la tarea de su ordenación
o reconducción al sistema.
Afirma Bobbio: “la Ciencia Jurídica debe transformar el discurso legislativo en un
discurso riguroso...y únicamente cuando logra construirse un lenguaje riguroso y sólo en
los límites en que tal lenguaje se construye, puede decirse que se convierte en investigación
científica, en una palabra, considerarse Ciencia”14.
3.3.3 La visión de la Ciencia del Derecho en Carlos Alchourrón y Eugenio Bulygin
Carlos Alchourrón y Eugenio Bulygin proponen un modelo de Ciencia Jurídica considerablemente más sofisticado que el que presenta Alf Ross.
Estos autores señalan dos tipos de tareas u operaciones que la Ciencia Jurídica desarrolla. En primer lugar, la tarea empírica de determinar qué enunciados constituyen la base
de un orden jurídico; en segundo término, las operaciones lógicas de sistematización del
derecho.
Alchourrón y Bulygin muestran que la sistematización del derecho consta de dos
pasos. En el primero de ellos se derivan las consecuencias lógicas de los enunciados que
constituyen la base del sistema, empleando ciertas reglas de inferencia; esto permite mostrar
los defectos lógicos (lagunas, contradicciones y redundancias) que el sistema pueda tener. En
una segunda etapa de la sistematización, se trata de reemplazar la base original del sistema
por una más económica pero equivalente a ella, o sea por un conjunto más reducido de principios que sean lo más generales que sea posible, siempre que tengan las mismas consecuencias lógicas que las normas que reemplazan.
En cuanto a la ubicación de la Ciencia del Derecho en una clasificación general de
las ciencias, afirman que no puede clasificársela sin más como una ciencia empírica y mucho
menos aún como una ciencia formal. “Tiene, sin duda, sus rasgos peculiares que justificarían
tal vez su inclusión dentro de las ciencias normativas como categoría autónoma, distinta tanto
de la ciencia formal, como de la empírica. Pero esto no excluye la posibilidad de aprovechar
para la Ciencia del Derecho parte del conocimiento logrado y algunos de los métodos usados
en la metodología de otras disciplinas más desarrolladas”15.
4. La discusión de la condición científica de la Ciencia del Derecho
4.1 El escepticismo de Julio von Kirchmann
Las discusiones sobre la cientificidad de la Ciencia del Derecho, se remontan según
algunos autores, ya hasta el siglo XVI. En el Renacimiento, los humanistas sintieron una
especial aversión hacia la Ciencia del Derecho.
Pero no hay duda que fue el análisis de Julio H. von Kirchmann, procurador del rey
en el Estado de Prusia, en su famosa conferencia pronunciada en 1847, el que alcanzó mayor
resonancia.
A fin de enmarcar debidamente su posición, a cuyos argumentos principales nos
referiremos, es necesario tener presente que la crítica de Kirchmann se dirige principalmente
a la Ciencia del Derecho como dogmática jurídica, y que además sus cuestionamientos son
hechos desde el ángulo visual de la ciencia de su época, caracterizada por el “positivismo”
(esto es, la atribución de carácter científico sólo a las llamadas “ciencias causales” o de la
INVENIO 14 (26) 2011: 13-38
27
Silvana Mabel García
naturaleza), por lo que su análisis sigue el método propuesto por estas ciencias.
Sostiene Kirchmann el carácter acientífico de la jurisprudencia como ciencia16.
La causa, afirma el jurista, radica en su mismo objeto, en “fuerzas impeditivas secretas inherentes al objeto”, que obstaculizan en esta área los esfuerzos del espíritu humano.
Y así, comparando el objeto de la Ciencia del Derecho con los objetos de otras materias, es
posible verificar las diferencias y peculiaridades del objeto del derecho, que no se hallan en
los objetos de otras ciencias.
En primer lugar, la esencial mutabilidad del objeto, que se “encubre” -según Kirchmann- en la afirmación generalizada de la existencia de un “desenvolvimiento progresivo de
las diferentes instituciones del derecho”.
Pertenece a la misma naturaleza de toda ciencia que su verdad puede madurar sólo
lentamente. Sus leyes no son sino el resultado de esfuerzos seculares comunes de sus cultivadores. En cambio, enfatiza Kirchmann, cuando la Ciencia Jurídica encuentra, después de
esfuerzos de muchos años el auténtico concepto, la verdadera ley de una de sus instituciones,
el objeto ya ha cambiado.
Consecuencia de ello es que la Ciencia Jurídica en general tiende a oponerse a todo
progreso en el derecho, ya que fuerza la subsunción de la realidad en categorías ya conocidas
pero quizás fenecidas, olvidando el jurista que no toda institución jurídica que se ha producido después de otra, procede forzosamente de ella.
En segundo término, el objeto del derecho (como ciencia) no sólo consiste en el
saber sino también en el sentir, y de este modo, la sede de su objeto no se halla sólo en la
cabeza sino también en el pecho de los hombres. Los objetos de otras ciencias son libres de
semejante aditamento, no existe en los objetos de otras ciencias, un “prejuicio sentimental”.
Pone Kirchmann como ejemplo, la discusión de si el matrimonio entre judíos y cristianos debe admitirse, qué causas de divorcio deben estatuirse, si se admite o no el mayorazgo. En estos problemas, como en muchos otros, antes de que principie la investigación
científica, ha contestado ya el sentimiento. Y el sentimiento, afirma Kirchmann, nunca y en
ninguna parte es un criterio de la verdad. En el ámbito de la Ciencia del Derecho “en vano
espera la verdad a un investigador limpio de prejuicios”17.
Otra particularidad del objeto de la Ciencia del Derecho, sigue desarrollando el procurador, es la figura de la ley positiva, que se entromete entre el derecho y la Ciencia, produciendo consecuencias nocivas para ambos. Provistas de poder y de sanciones, las leyes
positivas se imponen a su objeto, no importa si fuese verdadero o falso, debiendo la Ciencia
capitular ante ellas.
Y cuando la ley positiva más se acerca a la verdad, esto es, cuanto más ciencia pura
redactada con máxima precisión contiene, carece entonces la Ciencia del Derecho de una misión respecto a ella, pues lo que la Ciencia podría ofrecer, ya está contenido en la ley positiva.
Así pues, la Ciencia sólo puede ocuparse de “lo falso de la ley”: sus lagunas, ambigüedades,
contradicciones. Su objeto es así el descuido, la ignorancia, la pasión del legislador, los errores y los defectos de todas clases. “Por culpa de la ley positiva, los juristas se han convertido
en gusanos que sólo viven de madera podrida. Abandonando la madera sana, anidan y tejen
en la carcomida. La Ciencia, al hacer del azar su objeto, se convierte ella misma en azar: tres
palabras rectificadoras del legislador y bibliotecas enteras se convierten en papeles inútiles”18.
Refiere luego Kirchmann a otro obstáculo que dificulta la tarea “científica” del derecho: no pudiendo el derecho existir sin las características del saber y del sentir, cuando la
ciencia intenta despojarse (para adquirir justamente carácter científico) de estas característi-
28
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
cas, se desvía hacia la sofisticación y las elucubraciones estériles. El resultado de la Ciencia
Jurídica es así, un derecho ignorado por el pueblo, que no reside ya en su corazón. Y es por
ello que el sentir sencillo e inconsciente del pueblo quiere librarse de la Ciencia erudita por
medio de los jurados. “La Nación repudia a los juristas científicos. La sospecha, el sentimiento oscuro de la contradicción entre Derecho y Ciencia existen”19.
Reflexiona también el jurista prusiano sobre los “servicios” de la Ciencia del Derecho: impresos para contratos y juicios, un cúmulo de admoniciones y enseñanzas, el sistema
del proceso común repleto de detalles de erudición, formas y cláusulas que pretenden frenar la precipitación y proteger contra la chicana. Nunca auxilio, dirección científica donde
realmente se necesita. Así, agrega, cuando un problema jurídico conmueve a la Nación, se
interroga a la Ciencia para que disipe la duda y la dirija por el camino de la evolución, pero
la Ciencia es impotente para esta tarea pues nunca comprende el presente.
Concluye Kirchman su detractora alocución: “Los juristas son impotentes para poner los cimientos y para erigir la estructura misma de un edificio sólido. Sólo después de
terminada la construcción, aparecen los juristas a millares como los cuervos y anidan en
todos los rincones, miden los límites y dimensiones hasta el último centímetro y desdibujan
y desfiguran el edificio noble, de tal suerte que príncipe y pueblo apenas vuelvan a conocer
su propia obra.”
4.2 La concepción de la jurisprudencia como Técnica
Una visión más reciente, también negatoria del status científico de nuestra Ciencia,
es la que nos proporciona Manuel Atienza, en su opúsculo: “Sobre la jurisprudencia como
técnica social. Respuesta a R. Vernengo”20.
Del mismo modo que Kirchmann, refiriéndose a la labor dogmática de la Ciencia
del Derecho, sostiene Atienza la tesis del carácter esencialmente técnico de la jurisprudencia.
Entiende así, que ella es una técnica socialmente útil que se caracteriza además, por ser un
saber normativo y valorativo -o si se quiere político, por ser una actividad impregnada de
politicidad-.
A fin de caracterizar a la jurisprudencia como técnica, Atienza parte de las características que según Mario Bunge21, diferencian a la ciencia de la tecnología, y aplica dichas notas
distintivas a la dogmática. Refiriendo las más salientes, ellas serían:
a- Las comunidades tecnológicas no son tan abiertas como las científicas.
Resulta innegable, afirma Atienza, que las comunidades de cultivadores de la dogmática son menos abiertas que las de los científicos. Las soluciones ofrecidas por la dogmática sólo lo son en relación con un determinado derecho positivo, naturalmente susceptible de
ser cambiado, y ello obstaculiza la difusión de los “avances”.
b- A diferencia del conocimiento científico, el tecnológico es una mercancía.
El producto de la dogmática puede ser considerado frecuentemente como una mercancía, ya que las soluciones elaboradas por los dogmáticos están en la base de actividades
de asesoramiento que tienen un valor en el mercado, es decir, son traducibles en términos
económicos.
c- El tecnólogo es básicamente un pragmático. Le interesa la verdad objetiva, no
como fin, sino como medio para un fin útil o utilizable.
Nadie puede poner en duda, sostiene Atienza, que quienes se han dedicado al cultivo de la jurisprudencia, han defendido básicamente una concepción pragmática del saber,
INVENIO 14 (26) 2011: 13-38
29
Silvana Mabel García
que les ha llevado a sentir repulsión hacia toda especulación que no llevara en forma más
o menos inmediata a resultados prácticos. Los problemas que pueden considerarse como
característicos de la dogmática, son de tipo esencialmente práctico. Aun en el fondo de las
más abstractas teorías, suelen latir problemas prácticos cuya solución es precisamente lo que
justifica dicha teorización.
d- Los objetivos de la ciencia incluyen el descubrimiento o uso de leyes, la sistematización en teorías de hipótesis y el refinamiento de métodos. La tecnología, entre sus objetivos, tiene el de inventar nuevos “artefactos”, nuevas maneras de usar o adaptar los viejos y
planes para realizarlos, mantenerlos y manejarlos.
La finalidad de la dogmática es la de controlar los procesos de interpretación, aplicación, desarrollo y cambio del derecho, para lo cual el dogmático naturalmente adopta o
reformula conceptos, métodos y teorías y realiza una labor de sistematización y descripción
ordenada de un cierto sector del ordenamiento jurídico; pero tales funciones, en el entendimiento de Atienza, son subordinadas, o dicho de otra manera, constituyen el punto de partida,
pero no su punto de llegada, su objetivo final.
e- La tecnología tiene un componente del que carecen las ciencias: un conjunto de
juicios de valor acerca de cosas o procesos, que se formulan a la luz de las metas u objetivos.
No parece discutible, sostiene Atienza, que en la actividad del dogmático del derecho
juegan determinados juicios de valor, especialmente en la evaluación de las soluciones dogmáticas. Así, una cierta propuesta de solución se considerará adecuada y obtendrá consenso
en la comunidad jurídica, si promueve o al menos no pone en riesgo la seguridad jurídica, si
respeta y garantiza los derechos fundamentales, etc.
f- La tecnología moderna se funda en una o más ciencias. Los miembros que componen el campo de la tecnología, cambian, aunque sea lentamente, como resultado de investigaciones y desarrollos.
La dogmática jurídica mantiene pocas y poco profundas relaciones con la ciencia, y
en la opinión de Atienza, no se basa en ciencia alguna, sino más bien en una combinación de
experiencia, sentido común, conocimiento ordinario, etc. Y es por ello -sostiene el autor- que
se ha mantenido al margen de los procesos de cambio que tienen lugar en la ciencia y en la
tecnología.
Concluye Atienza que, dado que la actividad dogmática obedece más al modelo de
proceder técnico que al científico, entonces los filósofos y teóricos del Derecho que reflexionan sobre el saber jurídico tradicional deberían trasladar su centro de interés desde el campo
de la filosofía de la ciencia al de la filosofía de la técnica, y así la comprensión de que lo que
se cultiva es un tipo de saber técnico, podría evitarles abordar investigaciones pseudocientíficas de más que dudoso resultado.
Una concepción similar, sostiene Enrico Pattaro, en cuanto a que la actividad de los
juristas no llega a constituir actividad científica, por lo que no puede considerarse como ciencia y sólo puede clasificarse como técnica, (“técnica de interpretación”)22.
5. Algunos aportes personales
Como dijimos en la introducción del trabajo, propondremos (a modo de un “ensayo
provisorio”) nuestra visión de esta problemática y algunas meditaciones personales.
1- Siempre pensamos, y así lo transmitimos en nuestra labor docente, que el conocimiento en su faz científica puede compararse a un edificio en obras, en el que todos quienes
30
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
aspiramos a “elevarlo” en altura, tan sólo colocamos un ladrillo, el que unido a los otros que
aportan todos los demás que comparten la misma vocación, van concretando y haciendo más
alta la construcción, que sin embargo parece siempre inacabable.
Esto quiere evidenciar nuestra convicción acerca de que la ciencia es dinámica, se
construye momento a momento, y que es una “empresa de conjunto”, ya que todos los
“obreros” de este quehacer, contribuyen con lo suyo, sin que ninguno de ellos sea el “único
operario”. Entendemos que esta visión nos ayuda a desmitificar que la labor científica, por
lo menos en el ámbito del derecho, pueda significar un conocimiento “entero” al modo de un
producto terminado y completo y por solo un sujeto, lo cual muchas veces sirve de excusa
para no emprender la tarea (suele decirse así: “qué puedo descubrir o decir yo que antes otro
no haya hecho”).
También que, como en toda obra de construcción, a veces hay que “destruir” parte de
lo hecho, no porque lo construido no sea del todo útil, sino porque aparecen nuevos y mejores
materiales (fuentes del derecho), mejores procedimientos (métodos), que al utilizarse hacen
la obra más sólida.
De este modo, y trasladando algunos conceptos de Tomas Kuhn a nuestra ciencia,
nos parece que los cambios en su desarrollo operan más por obra de “vicisitudes acumulativas” que por “mutaciones revolucionarias” y que los “paradigmas” (como sistema de conceptos, valoraciones, métodos) son más estables que en otras ciencias. Se habla también de un
carácter pantónomo de la Ciencia del Derecho, en el sentido de ser una Ciencia en la que el
tiempo no suele modificar las bases oportunamente edificadas, a diferencia de otras en las que
el tiempo va superando los conocimientos originariamente adquiridos (física, química). Se
nos ocurre que quizás en nuestro tiempo, estemos asistiendo al surgimiento de ciertas “anomalías” (en el sentido de perplejidades, “rompecabezas”) en el área disciplinar que vincula
el derecho con la genética y los problemas que el avance de la clonación podrían ocasionar
en el mantenimiento de los paradigmas vigentes.
En definitiva, la Ciencia del Derecho es quehacer permanente para los juristas, que
nunca puede ser enteramente llevado a cabo, pero que día a día debe intentarse realizar.
2- En cuanto a las discusiones y diversas opiniones en punto al “ser del derecho”
(problemática respecto de la cual –debemos reconocerlo- aún no hemos podido formar opinión definitiva, aunque sentimos cierta inclinación a entender el Derecho – y el objeto de su
ciencia- de modo que normatividad y empiricidad resulten compatibles) no creemos que ellas
oscurezcan al objeto de nuestra ciencia, sino todo lo contrario, enriquecen su esencia, porque
en la existencia de diversos matices en su abordaje, surgen los nuevos conocimientos y los
aportes concretos al desarrollo de la ciencia y su metodología. Prueba de ello son las valiosas
contribuciones que hemos referenciado en este trabajo. Pero no obstante los diferentes puntos
de vista, pensamos junto con K. Larenz que la Ciencia del Derecho, siempre tiene que vérselas con el derecho, esto es, con las normas e institutos de un derecho positivo, por lo que
nunca resultará posible un análisis desvinculado de las normas.
3- Abordando concretamente la cientificidad del Derecho, nos parece que es posible
atribuirle tal “título” a nuestro saber, ello fundado en la convicción que es posible comprobar
la existencia, tanto de un sistema de conocimientos, ciertos y probables, respecto de un determinado sector de objetos de la realidad universal (en nuestro caso el Derecho) a los que es
posible acceder a través de una adecuada fundamentación metodológica (“ciencia-producto”
en la terminología de Nino) como asimismo de una labor, con metodología propia, que aspira
a la obtención y construcción de conocimientos racionalmente comprobables y sistemáticos
INVENIO 14 (26) 2011: 13-38
31
Silvana Mabel García
acerca del derecho (“ciencia-proceso”), sin dejar de reconocer que muchos de los conocimientos que aporta nuestra ciencia tienen validez temporalmente condicionada, justamente
porque su objeto (el Derecho) es cambiante.
Entendemos asimismo, que en nuestra Ciencia, las respuestas a las preguntas no pueden inequívocamente calificarse de “verdaderas” o “falsas” sino sólo de “defendibles” y que
la relatividad del saber jurídico (al decir de A.Ross) cobra vigencia en la conocida afirmación
de que “los juristas no amamos nada tanto como poner en duda las opiniones ajenas”23. Pero
tal como sostuviera Karl Popper, lo que hace a la racionalidad de la ciencia es el carácter
crítico y progresivo de la misma teoría, el hecho de que podamos presentar en defensa de su
pretensión de defender nuestros problemas, mejores argumentos que sus opositores y que en
definitiva el conocimiento científico progresa mediante conjeturas. Así, la unidad del método
científico consiste en el ensayo de posibles soluciones a los problemas mediante la propuesta
de conjeturas -teorías- y la refutación constante a dichas conjeturas -críticas-.
La ciencia se caracteriza por la búsqueda de la verdad pero también por la demostración del error: el conocimiento científico, debe ser pues, “falsable”. Lo que ocurre es que
existe la tendencia a pensar el conocimiento científico en torno al ideal de “exactitud” olvidándose que en la ciencia toda explicación se propone a título de ensayo y provisionalmente,
y que lo que hace al hombre de ciencia no es la posesión de conocimiento en el sentido de
verdades irrefutables, sino la búsqueda obstinada y audaz de la verdad. Aun lo provisorio es
válido, pues lo probable de hoy, puede ser lo cierto de mañana.
Reclamamos asimismo para nuestra Ciencia, y aunque sabemos que ello no es compartido por todos, una labor, no meramente reproductiva y descriptiva del material con que
trabaja, sino también de reconstrucción del derecho. En tal orden de ideas, nos resultan explicativas las siguientes observaciones de Roscoe Pound: “Suele afirmarse que la jurisprudencia
es la Ciencia del Derecho. Pero es necesario que consista en algo más que en la organización y
sistematización de un cuerpo de reglas de derecho. Los órganos legislativos, aunque en cierto
aspecto sean los más calificados, sólo de manera intermitente pueden prestar atención a un trabajo constructivo de creación del derecho para los fines del orden jurídico. Los jueces trabajan
en condiciones que cada día les hace más difícil que sean los oráculos vivientes del derecho,
excepto en cuanto dan autoridad a lo que ha sido formulado por escritores y profesores. Una
interpretación que estimule la actividad jurídica...que impulse a nuestros escritores y maestros
a orientar a tribunales y órganos legislativos, en lugar de seguirlos con una labor de simple ordenación, sistematización y de análisis conciliador, habrá cumplido debidamente su misión”24.
4- Estimulados por las reflexiones últimas de Bobbio (en cuanto a la posibilidad de
afirmar una duplicidad de saberes, uno: el científico, y otro: la realidad del quehacer del jurista) y asimismo la tesis de M. Atienza, en cuanto a que la jurisprudencia no es ciencia sino
técnica, nos proponemos en las siguientes líneas, analizar las diferentes prácticas relacionadas con el quehacer de los hombres y mujeres de derecho, a la luz de las características y
cometido que hemos propuesto para la Ciencia del Derecho. Enfocaremos así nuestra Ciencia
desde las actividades que desarrollan y los productos que elaboran sus protagonistas.
Desde tal perspectiva, pensamos que no puede calificarse de científica toda tarea que
desarrollan quienes operan en el campo de lo jurídico, y entendemos que pueden hacerse
algunas disquisiciones al respecto.
No habrá mayor duda en calificar la labor del investigador (y en ella incluimos al
“doctorando” en la elaboración de su tesis) y del doctrinario, como científica. Al identificar y
también plantearse problemas con relación al objeto de su ciencia y buscar, descubrir y propo-
32
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
ner soluciones, de modo reflexivo, sistemático y crítico, al ahondar en las raíces más profundas
de los institutos jurídicos, el jurista (investigador, doctrinario) construye la Ciencia del Derecho. En este mismo orden de ideas, la función de sistematización del orden jurídico (más propia
del doctrinario) al reemplazar conjuntos de normas por principios más generales y equivalentes
a ellas, logrando una mayor economía del sistema, lleva a cabo un trabajo previo imprescindible para la firmeza y seguridad de la tarea judicial, para una legislación objetivamente eficiente
y para una función de la administración que preserve y equilibre los diversos intereses.
Pero aun en este específico quehacer, comparto cierta crítica de J. Kirchmann en
cuanto a que existe una tendencia del jurista a asimilar todo conocimiento nuevo con alguno
anterior, como si nada pueda haber de nuevo en derecho que no responda armónicamente a
una institución anterior ya conocida que le sirva de simétrico paralelo. Esta actitud en nuestro entender, consecuencia de una inclinación natural del hombre a caminar sobre seguro,
perjudica el avance de la ciencia porque no deja pensar libremente e idear y crear nuevas
categorías. Así, en la ciencia como en otros ámbitos, el progreso debe luchar contra la inercia.
A modo de ejemplo, y por relacionarse con nuestra área de desempeño profesional, traemos
la discusión hoy todavía vigente en el ámbito del derecho concursal acerca de si el nuevo
acuerdo preventivo extrajudicial es un subtipo concursal o tiene naturaleza contractual25, esto
es, categorías existentes para un instituto que reclama interpretaciones novedosas en su aplicación por ser novedosa su regulación. De este modo, los conceptos tradicionales, los ropajes
clásicos, se usan para vestir a las nuevas instituciones.
La tarea legislativa, en su cometido de creación de derecho, tendría en nuestro parecer, un carácter técnico. Entendiendo por técnica, el saber para el hacer, un tipo de saber que
se produce con el objeto directo del hacer, o en la expresión de M. Bunge, de la invención
de nuevos artefactos, en su sentido más amplio de objeto artificial, esto es, toda cosa, estado
o proceso controlado o hecho deliberadamente con ayuda de algún conocimiento aprendido
y utilizable por otros26. Es preciso aclarar, que de cualquier modo, somos contestes con la
opinión según la cual, catalogar una actividad como técnica en vez de ciencia, no implica
colocar tal saber en una situación de inferioridad con relación a la ciencia, pues ambas llevan
al objetivo final de la realización del derecho27. Y aunque imbuida de características de técnica, ello no significa que prescinda de la ciencia. Todo lo contrario, la ciencia y la técnica
constituyen un ciclo de sistemas interactuantes que se alimentan el uno al otro. Al decir de
M. Bunge, el científico torna inteligible lo que hace el técnico y éste provee a la ciencia de
instrumentos y de comprobaciones.
De este modo, si bien la creación de una norma, significa en sí, el despliegue de
una labor técnica, opera sobre un fondo de conocimiento científico y con ayuda del método
científico. Existe así, un diálogo constante entre ciencia y técnica, y es deber del legislador,
aprovechar todo el bagaje de conocimiento que los hombres de ciencia han obtenido en su
propia labor.
Donde se hace más íntimo el diálogo entre ciencia y técnica, es sin duda en la elaboración de los proyectos de codificación.
Es inevitable reconocer sin embargo, que nuestras leyes, en términos generales,
adolecen de defectos, imprecisiones y omisiones que hacen aún más ardua la tarea de la
Ciencia del Derecho y que ponen en evidencia el insuficiente desempeño por el legislador
de una adecuada técnica legislativa. Además, el llamado fenómeno de “inflación legislativa”
agudiza este defecto.
Pero pareciera existir una preocupación en el ámbito legislativo por revertir esta
INVENIO 14 (26) 2011: 13-38
33
Silvana Mabel García
tendencia. En este orden de ideas, señalamos que poco tiempo atrás, mediante la ley 24.967,
nuestro legislador puso en marcha una importante iniciativa, que se vincula estrechamente
con aspectos científicos y epistemológicos, conocida como “Digesto Jurídico Argentino” mediante la cual se ha emprendido –por intermedio del Poder Ejecutivo y con el seguimiento
del Congreso- una tarea de ordenamiento de nuestra legislación a fin de permitir la sanción
de la ley de consolidación legislativa. El primer resultado de esa labor, ha sido el “Manual
de Técnica Legislativa”28 que, según sus autores, permitirá en su utilización perfeccionar el
sistema de normas, haciéndolo más claro para todos.
La tarea emprendida, consistió en el estudio de todo el derecho que surge de lo publicado en los registros nacionales de leyes y del Boletín Oficial desde 1853 hasta nuestros
días, con el fin de individualizar para luego eliminar del cuerpo de leyes, las normas de carácter particular, las que tuvieren objeto cumplido o plazo vencido y las que hubiesen sido
expresamente derogadas por otra norma. De allí se pasó a abordar el análisis epistemológico
y de vigencia normativa, para detectar las derogaciones implícitas de las normas a fin de proyectar su derogación expresa. El equipo encargado de tal monumental tarea (conformado por
profesores de la UBA, investigadores y especialistas) examinó 26.000 leyes nacionales de las
cuales se entiende que sólo permanecen vigentes alrededor de 4.000.
Con la aprobación del Digesto Jurídico Argentino, quedarán derogadas todas las
normas que no se hubieran incorporado a dicho Digesto hasta la fecha de consolidación como
legislación nacional general vigente y su reglamentación.
Interesa referir a algunas cuestiones que forman el contenido de la ley mencionada.
La primera de ellas, la clasificación de las ramas de la Ciencia del Derecho que la misma realiza en veintiséis categorías, coincidentes con el número de letras del abecedario (art. 7).
De la observación de tal categorización parece surgir que en la división de las ramas
del Derecho se ha adoptado un criterio “mixto”, esto es, atendiendo no sólo a la autonomía
propiamente científica de una rama, sino también a la posible existencia de una autonomía
didáctica y legislativa.
Llama la atención la decisión del legislador de individualizar las diferentes ramas
mediante las letras del abecedario. Pensamos que tal criterio (al haberse agotado ya la totalidad de las mismas) implica “cerrar” la posibilidad del reconocimiento de nuevas ramas
que adquieran autonomía, con lo que de algún modo se estaría desconociendo el fenómeno
que ocurre en todas las áreas del saber, de aumento del número de las ciencias particulares
autónomas. No hemos podido acceder al debate parlamentario de la norma, a fin de conocer
el fundamento de la clasificación y del modo de individualización de las clases así realizada.
Es de señalar también que, conforme a las modernas tendencias que señalan la equivocidad
de la distinción, no se formula diferenciación alguna entre derecho público y privado.
A fin de asegurar el respeto de la clasificación por parte de toda norma futura que se
sancione, y con ello mantener la adecuada sistematización del derecho positivo que mediante
el Digesto se logrará, se ha previsto que en la misma ley o decreto que se emita, el respectivo
poder creador de la norma se expida sobre el encuadramiento correspondiente (art.17).
La segunda cuestión que nos parece interesante señalar, es que la referida ley 24.967
incorpora como nueva pauta para la labor de integración del derecho, lo que conceptúa como
“derecho histórico” integrado por las leyes nacionales derogadas o en desuso y su reglamentación (que conformarán el Anexo del Digesto Jurídico Argentino) y al que se asigna valor
jurídico equivalente a los principios generales del derecho en los términos del art. 16 del C.
C (art. 4). Será justamente la Ciencia del Derecho la encargada de aprehender la naturaleza,
34
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
jerarquía y alcance de esta nueva pauta integradora.
En cuanto a la labor de los jueces, en punto a la función principal de aplicación
del derecho que asume, también creemos que más que científica se aproxima al carácter
de técnica. Al consistir fundamentalmente en una tarea de inclusión del caso concreto en el
supuesto normativo y la asignación de las consecuencias previstas por la norma, tiene como
meta principal la obtención de un resultado práctico (la resolución de un conflicto mediante
la sentencia: “artefacto” conceptual, en la terminología de Bunge) más que la de un conocimiento, aunque se valga lógicamente de ellos, ya que toda labor de aplicación del derecho
presupone la de interpretación. Tal vez, en la producción de los fallos plenos y/o plenarios
pueda atribuirse cierto grado de cientificidad a la tarea desplegada por los jueces. Lo postulamos así, pues nos parece que a través de su elaboración es advertible, si bien no en todos
los casos, una función análoga a la desplegada por los doctrinarios al desentrañar y reelaborar
el significado y alcance de las normas e institutos jurídicos, que incluso ha servido muchas
veces como antecedente para dictar una ley en sentido concordante a la doctrina emanada
del decisorio. Aunque también podríamos señalar una particularidad un tanto negativa de esa
tarea en cuanto al anquilosamiento del derecho, que en virtud de la regla de la supervivencia
de los decisorios en tanto no sean modificados29 un pleno o plenario puede significar, menospreciando así los aportes y progresos logrados en el ámbito de la Ciencia del Derecho.
La función docente y también la académica en general, adquiere connotaciones científicas cuando más allá de la función principal, edificante y vital, de transmisión del saber
jurídico (transmisión del contenido de la Ciencia del Derecho), genera nuevos conocimientos, formula hipótesis, conceptos, teorías, que permitan describir, explicar o comprender más
profundamente los fenómenos jurídicos. En tales casos, el aporte al crecimiento de la Ciencia
del Derecho parece indudable. A modo de ejemplo (no único por supuesto) en nuestra propia
Facultad de Derecho de Rosario, es posible distinguir ciertas cátedras en las que se reconoce
la presencia de docentes que han contribuido a la formulación de teorías referidas al proceso,
que han trascendido incluso las fronteras de nuestro país (podría discutirse también si tales
teorías, se ubican en el campo de la Ciencia del Derecho o llegan a alcanzar el status de teorías generales del derecho).
Por último, resta analizar la tarea propia del abogado en el ejercicio de la profesión.
Pensamos así que, tal como observamos el desempeño de la profesión en la actualidad, ella se aproxima más al modelo del proceder técnico que al científico (“cómo” hacer tal
cosa, en vez de, por ej: “por qué” hacer tal cosa) y que la función del abogado en nuestros
días, no es hacer ciencia, sino utilizar el conocimiento científico disponible para proporcionar
soluciones más adecuadas, por ejemplo, en la elaboración de un dictamen profesional, en la
redacción de un contrato, en la constitución de una sociedad, en la preparación de un concurso, actividades todas ellas encaminadas hacia la realización de una finalidad práctica. Tal vez
por ello, “por el ansia de la Ciencia”, el profesional abogado suele desempeñarse también en
el ámbito docente, o como investigador o doctorando, o como doctrinario, buscando de ese
modo relacionarse con el desarrollo de tareas científicas. Una especial reflexión para la actividad del abogado en el proceso.
Creemos que allí se pone en funcionamiento un arte especial: “el arte de argumentar”.
Como dijera nuestro profesor Miguel A. Ciuro Caldani en clases de doctorado en la materia
“Teoría General del Derecho”, el ejercicio de la abogacía, en la estrategia del proceso, es una
combinación de arte, astucia y ciencia. Así el abogado, en representación de su parte en el proceso, intenta, a través de sus escritos y actuaciones, persuadir y convencer al juez de la legitimi-
INVENIO 14 (26) 2011: 13-38
35
Silvana Mabel García
dad de la tesis defendida, de “su” verdad, y de que la verdad del contrario no es tal, rebatiendo
sus argumentos. Pero cuál es la auténtica verdad, es un enigma que el proceso no resuelve.
6. Reflexiones finales
Los cuestionamientos en torno al carácter científico de la Ciencia del Derecho han
llevado a algunos autores a preguntar si tiene algún sentido seguir discutiendo acerca del status
epistemológico de la jurisprudencia. Semejante debate, se afirma, no parece cumplir más que
una función ideológica: la de descalificar o justificar, según los casos, el saber jurídico tradicional, pero sin que nuestro conocimiento sobre el mismo se vea aumentado por ello.
En tal orden de ideas se sugiere que al fin y al cabo, incluir o no un fenómeno en una
cierta clase depende de la necesidad de satisfacer determinados propósitos, y que no parece
que haya otro más importante en juego, en el intento de dar condición científica a la tarea de
los juristas, que atraer para ella el halo de prestigio y aprobación que rodea a toda actividad
que puede designarse con la palabra “ciencia”, que al igual que “derecho” tiene una carga
emotiva favorable. Su aplicación a una actividad es una especie de condecoración que atrae
hacia ella el respeto y el aprecio de la gente.
Y se observa así que no basta que un cierto modelo responda a los cánones científicos
para que su materialización constituya una actividad socialmente relevante; pues además, no
toda actividad socialmente relevante tiene por qué satisfacer exigencias de cientificidad.
Es evidente que la cuestión dista aún de ser “pacificada”.
De cualquier modo, entendemos que hace al crecimiento y desarrollo de toda actividad, desde la más simple labor artesanal hasta la más elevada labor científica, “objetivarse”,
esto es, transformarse a sí misma en objeto de reflexión y crítica. Sólo cuando se es capaz de
“cuestionar” el modo en que se trabaja, vive, y piensa, es posible evolucionar hacia estadios
más plenos, más ricos (en valores y experiencia) del desarrollo personal, y de ese modo,
contribuir a la evolución social.
Coincidimos con Hector Fix Zamudio cuando en defensa de la Ciencia del Derecho
sostiene: “...no obstante las apariencias, es una de las más elevadas, de las más necesarias y
de las más nobles del conocimiento humano, pues sin la existencia de su objeto, es decir, el
ordenamiento jurídico, no sería posible ninguna otra actividad individual o colectiva, incluyendo las de investigación de la naturaleza o de los objetos matemáticos”30.
Recibido: 05/11/12. Aceptado: 9/12/10
notas
1 Russell, Bertrand. Bertrand Russell dice la sua. Milano, 1968, trad. De A Pellegrini,, pp. 9-10,
citado por Pattaro, Enrico, en Filosofìa del Derecho. Derecho. Ciencia jurídica. Madrid, Reuss,
1980. Traducción de José Iturmendi Morales, p. 48 y sgtes.
2 Alvarez Gardiol, Ariel, “Introducción a una teoría general del derecho. El método jurídico”, Bs.
As, 1975, Astrea, p. 3.
3 Guibourg, Ricardo. “El sexo de los ángeles. El constructivismo en las ciencias sociales”, en Abeledo Perrot, “Lecciones y Ensayos”, Nº. 67/68, Bs. As, pág. 97; citado por Dabove, Ma. Isolina en
“El derecho como complejidad de saberes diversos” en “Ideas y Derecho”, Rubinzal Culzoni, Año
III, Nro. 3, 2003.
36
INVENIO 14 (26) 2011: 13-38
El derecho como ciencia
4 Nino, Carlos. Introducción al análisis del Derecho. Bs. As, Astrea, 2005, 13ra. reimpresión p. 16.
5 Cátedras A y E de I.a D y C de F del Panorama jusfilosófico, “La concepción del derecho en las
corrientes de la filosofìa jurídica”, Boletín Mexicano de Derecho Comparado, nueva serie, año
XXX, Nº 90, set/dic 1997, en cuadernillo de la Carrera de postgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y metodología de investigación en las ciencias
jurídicas UNR, Facultad de Derecho, 2005.
6 Torre, Abelardo. Introducción al derecho. Bs. As., Lexis Nexis-Abeledo Perrot,2003, p.55.
7 Seguimos, para el desarrollo de este punto, a Karl Larenz, en su Metodología de la Ciencia del
Derecho. Madrid, Ariel, 1980, traducción de Marcelino Rodríguez Molinero, 2da.edición, p.32 y
ss.
8 Savigny, Federico Carlos de, “Los fundamentos de la ciencia jurídica” (de “Sistema del Derecho
Romano.
9 Ihering, Rudolf von. El espíritu del Derecho Romano, citado por Larenz Karl, op.cit. p. 47.
10 Gény, Francisco. Método de interpretación y fuentes en derecho privado positivo, citado por Borga, Ernesto E. Ciencia Jurídica o Jurisprudencia Técnica. Bs. As, Sociedad Bibliográfica Argentina, 1943, p.350.
11 Legaz Lacambra, Luis. Filosofía del Derecho. Barcelona, Bosch, 1953, p.133.
12 En el desarrollo de los puntos siguientes, seguimos a Pattaro, Enrico, op.cit. p. 257 y ss.
13 Alvarez Gardiol. Lecciones... op.cit., p. 148.
14 Bobbio, Norberto, en Scienza del diritto e analisi del linguaggio, citado por Pattaro, E. op.cit. p.
342.
15 Alchourrón C. y Bulygin, E. Introducción a la metodología de las ciencias jurídicas y sociales.
Bs.As, Astrea, 2002, p.21.
16 Desarrollamos la posición de Kirchmann sobre la base de su célebre discurso: “El carácter acientífico de la llamada ciencia del derecho” incluido en La ciencia del Derecho. Op.cit. p. 246 y ss.
17 Ibidem, p.263.
18 Ibidem, p. 267.
19 Ibidem, p.280.
20 Publicado en “Doxa. Publicaciones periódicas Nro. 3. 1986” disponible en internet en: http://
descargas.cervantesvirtual.com/servlet/SirveObras/doxa/02406177433793617422202/cuaderno3/
numero3_19.pdf al 11 de octubre del 2005.
21 Sobre tales características se explaya Mario Bunge en Seudociencia e ideología. Madrid, Alianza, 1985.
22 Pattaro, Enrico, op.cit., p. 381.
23 Thibaut, Anton F. J. “Sobre la necesidad de un derecho civil para Alemania” citado por Alegría, Héctor en Algunas cuestiones de derecho concursal, Bs. As., Abaco de Rodolfo Depalma, 1975, p. 30.
24 Pound, Roscoe, “Las grandes tendencias del pensamiento jurídico”, citado por NINO, Carlos, op.
cit., p. 341.
25 Podríamos citar innumerables artículos de doctrina relacionados con esta problemática, vayan
como ejemplos: Dasso, Ariel A. “El APE, su naturaleza compleja...” en Derecho Concursal Argentino e Iberoamericano, Tomo 1, p. 291, Bs. As., Ad-Hoc,,2003; Alegria, Héctor “Facultades
del juez e interpretación de las normas sobre acuerdo preventivo extrajudicial. (Ubicación sistemática y algunos efectos) “ Suplemento Especial Revista LL, “Acuerdo Preventivo extrajudicial”,
noviembre 2004,. p.49; Heredia, Pablo “Delimitación del ámbito subjetivo del acuerdo preventivo
extrajudicial a través de la indagación de su naturaleza” en Derecho concursal Argentino e Iberoamericano. Tomo 1, p. 177 y s. Bs. As. Ad-Hoc, 2003, etc.
26 Bunge, Mario. Seudociencia e ideología. Madrid, Alianza Universidad, 1985, pp.33-34.
27 Alvarez Gardiol, “Lecciones...”. op cit, p. 140.
28 Según da cuenta la revista Nº 85 (julio-agosto 2005) del Colegio Público de Abogados de la Capital
Federal, p. 52, en el artículo titulado: “Digesto, un aporte a la seguridad jurídica”, que como aporte
hemos incorporado en el anexo de este trabajo, dicho manual ha sido publicado en soporte papel
por el Colegio Público de Abogados de la Capital en febrero de 2001, contando además con su
INVENIO 14 (26) 2011: 13-38
37
Silvana Mabel García
aparición en soporte informático. El Manual, fue redactado bajo la dirección del profesor Antonio
Anselmo Martino, de la Universidad de Pisa, Italia.
29 En nuestro ámbito, dicha vigencia obligatoria en tanto no ocurra su expresa modificación ha sido establecida mediante el siguiente fallo pleno: Acuerdo Nro. 16, CCC de Rosario en Pleno, 13-2-98: “la interpretación que en lo sucesivo ha de darse al art. 28 de la ley 10.160 es: después de transcurridos cinco
años de su dictado, el fallo pleno que no fuese expresamente modificado continúa siendo obligatorio”
30 Fix-Zamudio, Hétor. Metodología, docencia e investigación jurídicas. México, Povina, 1984, p.
16, citado por FLORES, Imer en “El porvenir de la ciencia jurídica. Reflexión sobre la ciencia y
el derecho” en “La ciencia del derecho durante el siglo XX” autores varios, disponible en internet
en “www.bibliojuridica.org/libros/libro.htm?l=114, al 11 de octubre del 2005.
Bibliografía consultada
Alegría, Héctor. Algunas cuestiones de derecho concursal. Bs. As., Depalma, 1975. Capítulo “El
derecho como ciencia”.
Alchourron,C. y Bulygin, E.. Introducción a la metodología de las ciencias jurídicas y sociales.
Bs. As, Astrea, 2002.
Alvarez Gardiol, Ariel. Lecciones de Epistemología. Algunas cuestiones espistemológicas de las
Ciencias Jurídicas. Sta. Fe, UNL, 1986.
Álvarez Gardiol, Ariel. Introducción a una teoría general del derecho. El método jurídico. Bs.
As., Astrea, 1975.
Atienza, Manuel, “Sobre la jurisprudencia como técnica social. Respuesta a R. Vernengo”.
“DOXA. Publicaciones periódicas”. 1986, Nº. 3.
Borga, Ernesto E. Ciencia Jurídica o Jurisprudencia Técnica. Bs. As, Sociedad Bibliográfica
Argentina, 1943.
Bunge, Mario. La ciencia, su método y su filosofía. Bs.As, Siglo XX, 1985.
Calsamiglia, Albert. En defensa de Kelsen. Barcelona 1997, en cuadernillo de la Carrera de posgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y metodología
de investigación en las ciencias jurídicas” UNR, Facultad de Derecho, 2005.
Cátedras, A y E de I.a D. y C. de F. del Panorama jusfilosófico, “La concepción del derecho en las
corrientes de la filosofía jurídica”, Boletín Mexicano de Derecho Comparado, nueva serie, año XXX,
Nº. 90, set/dic 1997, en cuadernillo de la Carrera de posgrado Doctorado en Derecho, correspondiente
a la materia “Teoría General del Derecho y metodología de investigación en las ciencias jurídicas”
UNR, Facultad de Derecho, 2005.
Ciuro Caldani, Miguel Ángel. “Lecciones de teoría general del Derecho”, cuadernillo de la Carrera
de Posgrado Doctorado en Derecho, correspondiente a la materia Teoría General del Derecho y Metodología de la Investigación en las Ciencias Jurídicas, UNR, Facultad de Derecho, año 2005.
Dabove, Ma. Isolina en “El derecho como complejidad de saberes diversos” en Ideas y Derecho,
Rubinzal Culzoni, Año III, Nro. 3, 2003.
Larenz, Kart. Metodología de la Ciencia del Derecho. Madrid, Ariel, 1980. Traducción de Marcelino Rodríguez Molinero, 2ª ed.
Legaz Lacambra, Luis. Filosofía del Derecho. Barcelona, Bosch, 1953.
Nino, Carlos. Introducción al análisis del Derecho. Bs. As, Astrea, 2005. 2ª Edición ampliada y
revisada, 13ra. reimpresión editorial
Pattaro, Enrico. Filosofía del Derecho. Derecho. Ciencia jurídica. Madrid, Reuss S. A, 1980.
Traducción de José Iturmendi Morales
Savigny, Kirchmann, Zitelmann, Kantorowicz. La Ciencia del Derecho. Bs. As, Losada, 1949.
Traducción de Werner Goldschmidt.
Torre, Abelardo. Introducción al derecho. Bs.As., Nexis-Abeledo Perrot, 2003. 14ª Edición.
38
INVENIO 14 (26) 2011: 13-38
CIRCULARIDAD, ARBITRARIEDAD
Y REGRESO INFINITO DE RAZONES
Tito Flores*1
RESUMEN: Este trabajo presenta algunos puntos esenciales del infinitismo. Según Peter
Klein, el único epistemólogo contemporáneo que ha defendido esta teoría, el infinitismo
puede ser definido por la idea de que las razones que justifican una opinión deben ser infinitas en número y no-repetidas. El objetivo de este trabajo es clarificar el infinitismo y
demostrar que esa teoría es la única capaz de evitar adecuadamente el escepticismo.
Palabras clave: justificación epistémica - infinitismo - escepticismo - fundacionalismo
Abstract: Circularity, Arbitrariness and the Infinite Regress of Reason
This essay presents some key elements of the epistemological theory called “Infinitism.” According to Peter Klein, the only contemporary epistemologist who has defended
Infinitism, this theory can be defined by its claim that the reasons that purportedly justify a
belief must be infinite in number and non-repeating. The porpose of this essay is to clarify
what exactly Infinitism means and as well as demonstrate that Infinitism is the only theory
capable of avoiding unwelcome skeptical results.
Key words: epistemic justification - infinitism - skepticism - foundationalism
Introducción
En este artículo se presentan los elementos esenciales de una teoría epistemológica
históricamente subestimada pero que en años recientes ha recibido gran atención de la comunidad filosófica internacional1.
Esa teoría, conocida como “infinitismo”, ha sido por mucho tiempo considerada prima facie falsa y su refutación obvia. Desde la antigüedad se imaginaba que mentes finitas
no podrían poseer un número infinito de creencias2 y que una regresión ad infinitum en el
proceso de justificación de una opinión terminaría, inevitablemente, en la suspensión del
juicio3. Tales objeciones, como veremos, no revelan más que un entendimiento precario y
equivocado sobre el infinitismo.
El infinitismo es la teoría epistemológica según la cual la justificación epistémica de
una opinión exige la disponibilidad de un conjunto de razones que debe ser infinito en número y no-repetido. La idea central del infinitismo es que una opinión será epistémicamente
justificada si las razones que la sostienen no son repetidas y que no puede haber un punto de
parada en el proceso de justificación que, una vez desafiado, no exija razones adicionales.
El infinitismo por lo tanto supone la verdad de los dos siguientes principios:
Principio de Evitar la Circularidad (PEC): Para todo X, si una persona, S, tiene jus-
* Tito Flores es Doctor en Filosofía por la PUC-RS. Actualmente es becario posdoctoral del CONICET, con sede
de trabajo en UCEL. E-mail: titoalflores@hotmail.com.
INVENIO 14 (26) 2011: 39-45
39
Tito Flores
tificación para X, entonces, para todo Y, si Y es un ancestral evidencial de X para S, entonces
X no es un ancestral evidencial para Y4.
Principio de Evitar la Arbitrariedad (PEA): Para todo X, si una persona, S, tiene
justificación para X, entonces hay alguna razón, R, disponible para S para X; y hay una razón,
R1, disponible para S para R, etc., y no hay una última razón en esa serie5.
En primer lugar, es preciso tener en cuenta que “es el recurso intuitivo a esos dos
principios lo que constituye la mejor razón para pensar que si una creencia es epistémicamente justificada, entonces la estructura de razones debe ser infinita y no-repetida”6; y, en
segundo, que refutar el infinitismo no es más que mostrar que por lo menos uno de esos
principios es falso.
El PEC parece obviamente verdadero, y su defensa innecesaria, una vez que simplemente determina que la circularidad en el raciocinio está epistémicamente desautorizada.
La idea es que si una razón, R, es parte de la cadena de razones para la justificación de una
proposición, P, entonces P no puede ser parte de la cadena de justificación de R.
Por otro lado, el PEA implica que las razones solamente son necesarias para la justificación de una opinión. El PEA implica, por lo tanto, que toda la teoría de la justificación
epistémica tiene que ser, en un cierto sentido, internalista7. Más que eso, el PEA implica que
la cadena de razones no puede ser cerrada con una razón para la cual ninguna otra razón esté
disponible. Si el PEA es verdadero, entonces cualquier forma de fundacionalismo debe ser
abandonada.
Disponibilidad
La primera aclaración sobre el PEA dice respecto a la noción de disponibilidad: ¿qué
quiere decir exactamente la expresión “una razón ser disponible para S”?8 Según Klein, hay
dos sentidos a partir de los cuales una razón puede estar “disponible” para un determinado
sujeto: “disponibilidad objetiva” y “disponibilidad subjetiva”.
Una razón está subjetivamente disponible para S si S es capaz de considerar esa
proposición, o sea si S es capaz de formar una creencia que tiene como su contenido esa
proposición.
La noción de disponibilidad subjetiva sirve para destacar que S necesita, de alguna
manera, disponer de las proposiciones que eventualmente van a servir de razones para sus
creencias. Ahora, que una proposición X esté subjetivamente disponible par S es una condición necesaria, pero no suficiente, para que X sea una razón para S. Es igualmente necesario
que X esté objetivamente disponible para S. Por medio del concepto de disponibilidad objetiva se pretende mostrar que no es cualquier proposición subjetivamente disponible para S la
que puede ser una (buena) razón para S sostener sus opiniones.
Existen diversos abordajes sobre lo que hace de una proposición una razón para creer
y el infinitismo no está específicamente comprometido con ningún abordaje en particular. Así
como en relación a la disponibilidad subjetiva, el infinitismo es compatible con las teorías
que definen las características de la disponibilidad objetiva. Si, por ejemplo, se define que R
es una razón para creer que P si R torna P probable en un grado determinado, el Infinitismo
podría aceptar e incorporar esa descripción de disponibilidad objetiva9. Si, por lo contrario,
se define que una razón R es objetivamente disponible para S si alguna persona intelectualmente virtuosa propusiese R como una razón para creer que P, el infinitismo podría igualmente aceptar e incorporar esa descripción10. Cualquiera que sea la teoría escogida, el infinitismo
40
INVENIO 14 (26) 2011: 39-45
Circularidad, arbitrariedad y regreso infinito de razones
puede entrar en acuerdo con ella. No hay nada que estructuralmente impida al infinitismo
aceptar la teoría sobre la disponibilidad objetiva que más adecuada parezca.
Esos son los esclarecimientos iniciales sobre los dos principios que forman la teoría
infinitista. En resumen, el infinitismo está comprometido con dos tesis: 1) algo, para que
pueda ser una razón para S creer que P, debe estar dentro del alcance mental o cognitivo de
S y 2) ni todo que está subjetivamente disponible para S será una razón para S creer que P:
es necesario que la razón R esté objetivamente disponible para S, o sea, que R sea una razón
apropiada para S creer que P.
Justificación proposicional y justificación doxástica
El infinitismo, como cualquier teoría de la justificación epistémica, debe ser capaz
de demarcar la diferencia entre el caso donde el sujeto S tiene justificación para creer y el
caso donde el sujeto está justificado al creer. Estar justificado al creer depende de tener
justificación para creer. El caso de tener justificación para creer es llamado de justificación
proposicional, donde la proposición P es justificada para el individuo. El caso del individuo
de estar justificado al creer que una proposición es verdadera es llamado de justificación
doxástica, donde la creencia o opinión del individuo es justificada11.
El PEC y el PEA son principios que regulan las condiciones necesarias para que el
sujeto pueda tener justificación para creer. Los dos principios son, por lo tanto, principios
de justificación proposicional: dicen como es posible una proposición ser justificada para S.
La distinción entre tener justificación y estar justificado (entre justificación proposicional y doxástica) permite el análisis de los casos en que (a) el sujeto no forma la creencia,
aunque tenga razones disponibles para tenerla; (b) el sujeto no tiene conciencia de que posee
justificación para creer una determinada proposición y (c) el sujeto no usa la justificación que
posee para sostener su opinión.
Según el infinitismo, para que exista justificación debe haber un conjunto de proposiciones que es infinito y no-repetido. Solo así puede S tener justificación para creer. La
justificación epistémica emerge cuando, y solamente cuando, hay un conjunto infinito y norepetido de proposiciones subjetiva y objetivamente disponibles para S.
Aquí se puede percibir una importante relación entre infinitismo y coherentismo: para
esas teorías no es la existencia de un tipo especial de proposición el que genera la justificación
epistémica – justificación que podría, a partir de una generación supuestamente autónoma, ser
trasferida de una a otra. Por lo contrario, es la existencia de un determinado conjunto de proposiciones el que hace que la justificación epistémica surja. Así, para el infinitismo y el coherentismo, la justificación nace de un conjunto determinado de proposiciones, y no, como en el caso
del fundacionalismo, de algunas proposiciones esencialmente distintas de las demás.
Para el infinitismo, una proposición no es justificada en virtud de ser justificada otra
proposición, de modo que la propiedad de la justificación es transferida de una a otra (y así
seríamos llevados finalmente a aquellas proposiciones que detienen la fuente de la justificación epistémica, poseedoras de las células autónomas de justificación). De acuerdo con el
infinitismo, no existen proposiciones de ese tipo. La fuente de la justificación es el conjunto
de proposiciones, un conjunto cuyas características son definidas por el PEC y el PEA.
Dicho de otra manera, es necesario que el PEC y el PEA sean verdaderos para que
S pueda tener justificación para creer. No obstante, aquello que hace de una proposición una
razón para creer no es simplemente la existencia de tal conjunto. O sea, lo que hace de una
INVENIO 14 (26) 2011: 39-45
41
Tito Flores
proposición una razón para creer no es solamente la existencia de la razón R1, que es razón
para creer R, etc., pero sí las condiciones de disponibilidad.
Ese detalle es importante una vez que se podría criticar el infinitismo si él sugiriese
que la simple existencia de una cadena infinita de proposiciones fuese lo que tornara una
proposición cualquiera en una (buena) razón para creer. Pero eso sería confundir lo que hace
posible que S tenga justificación con lo que hace que una proposición sea una razón para
creer. Lo que torna posible la justificación epistémica es la existencia de un conjunto infinito
y no-repetido de proposiciones, y lo que hace que una proposición sea un razón para creer es
la disponibilidad subjetiva y objetiva de la proposición para el individuo.
El infinitismo no exige que el individuo tenga que creer en un conjunto infinito de
proposiciones. La exigencia es apenas que debe haber un conjunto infinito de proposiciones
que puedan estar subjetiva y objetivamente disponibles al sujeto, de modo que él pueda formar una opinión en una de esas proposiciones en las circunstancias apropiadas.
Según Klein: supongamos que tenemos un conjunto muy limitado de conceptos en
nuestro vocabulario: ‘x es F’, ‘rojo’, y ‘esto’. Nosotros podemos creer de un objeto: ‘esto es
rojo’. Imaginemos ahora que hay un número infinito de objetos rojos. Nosotros podríamos
creer de cada uno de esos objetos ‘él es rojo’. Esas serían creencias diferentes porque las
condiciones de verdad de las proposiciones son distintas. ¿Existe un número infinito de objetos rojos? Yo no sé. Pero eso no es necesario para el argumento. Todo lo que es necesario
es mostrar que una mente finita puede tener acceso a un número infinito de creencias. Y el
argumento muestra eso12.
No existe una excesiva complejidad que pueda ser atribuida a las exigencias infinitistas. La objeción de las mentes finitas, que muchos acreditaban ser la mejor contra el infinitismo13, es resultado de mala comprensión de lo que propone la teoría.
La idea de que la justificación es algo que se trasmite de una proposición a otra
puede traer consigo una cierta concepción de justificación, justamente la concepción que el
infinitismo busca rehusar. Suponer que la justificación es algo que se trasmite de X a Y impone la necesidad de un elemento que posea justificación sin que nada del mismo tipo haya
trasmitido la justificación a ese elemento. Ese es un esquema adecuado al fundacionalismo:
P es justificada autónomamente y, entonces, trasmite la justificación a otras proposiciones.
Lo más adecuado es aceptar que la justificación epistémica sea una relación entre
proposiciones y que un determinado conjunto de proposiciones genera justificación. Según
el infinitismo, el rasgo fundamental del conjunto es que sus elementos deben ser infinitos y
no-repetidos. Y la razón para aceptar que el conjunto debe contener infinitas y no repetidas
proposiciones es que el PEC y el PEA son verdaderos.
Delante de la pregunta sobre la justificación de la última proposición de la cadena,
la respuesta infinitista sería: no hay una última proposición en la cadena, siempre habrá una
proposición no-repetida para sostener la proposición previa.
La réplica podría ser insistir en que si no hay una proposición última, un punto final
fijo, es imposible entender cómo las proposiciones se pueden justificar. La pregunta entonces
sería: ¿al final, de donde viene la justificación? 14
Aquí hay dos posibilidades. Una sería decir que indagar de dónde viene la justificación es equivalente a preguntar por qué hay justificación. La respuesta infinitista podría ser
simplemente que si hay justificación, esa es la forma como las proposiciones se justifican.
Ese tipo de respuesta, aunque no explique de donde viene la justificación, no implica que no
haya justificación.
42
INVENIO 14 (26) 2011: 39-45
Circularidad, arbitrariedad y regreso infinito de razones
La otra alternativa, que nos parece la más apropiada, está basada en la idea de que
solamente existe una relación de justificación entre proposiciones por haber un número infinito y no-repetido de proposiciones disponibles. La posibilidad de que una proposición pueda
ser epistémicamente sostenida por otra es garantizada justamente por la existencia de un
número infinito de proposiciones. Es en ese sentido que la justificación emerge del conjunto
de proposiciones.
Justificación doxástica
El proceso de justificación está relacionado a la justificación doxástica. Si hay un
modo de resolver el proceso, ese modo tiene que ver con la posibilidad de un individuo de
poseer opiniones justificadas. Que haya justificación proposicional es una condición necesaria para que las opiniones del individuo sean justificadas, pero el proceso de justificación es,
por definición, el proceso de justificación de las creencias del individuo.
Hay dos cuestiones importantes relacionadas a la justificación doxástica: 1) como el
infinitismo realiza la distinción entre S tener justificación para creer que P y S estar justificado opinando que P, y 2) cual es la respuesta infinitista para el proceso de justificación.
El infinitismo, como cualquier teoría epistemológica, debe imponer restricciones
para que alguien esté justificado al opinar y esa restricción está basada en la idea de que una
opinión está epistémicamente justificada si la razón que la justifica ejerce un apropiado rol
causal en el sostenimiento de la opinión. Así, más allá de haber justificación para creer que
una proposición sea verdadera, es necesario que el individuo use esa misma razón para sostener la opinión en cuestión. Dicho de otra forma, la razón R debe ejercer una función causal
en el sostenimiento de la creencia de que P, si S está justificado al creer que P.
Según Klein: S tiene justificación para una proposición, P, solo si hay una razón, R1,
que es subjetiva y objetivamente disponible para S; por otro lado, la creencia de S de que P
está justificada solo si R1 está ejerciendo un rol causal en el sostenimiento de la creencia de S
de que P. Pero, ¿qué se puede decir de la creencia en R1? ¿Ella tiene que estar justificada para
la creencia de que P esté justificada? No. Debe haber una razón, R2, para R1, que es subjetiva
y objetivamente disponible para S, si S tiene justificación para P, pero la creencia en R2 no
tiene que estar justificada para la creencia de que P esté justificada. Es suficiente la creencia
de que P sea causalmente sostenida por R1 para que la creencia de que P sea justificada15. Lo
que hay de más interesante aquí es la condición para la adquisición de creencia justificada por
parte de S. El esclarecimiento de las condiciones infinitistas para la adquisición de creencia
justificada es importante en la medida en que, entre otras cosas, eso tendrá implicaciones directas en el análisis del proceso de justificación. La exigencia de disponibilidad implica que
aquello que justifica S al creer que P – la razón R – sea una creencia de S, de modo que S está
justificado al creer que P si S posee otra creencia de que R. Un desdoblamiento del infinitismo
es que, para que S tenga una creencia justificada de que P, se exige que S crea también en
aquello que lo justifica al creer que P.
Para no incurrir en arbitrariedad, si S cree que R y R es la razón de S para creer que P,
es necesario que S tenga justificación para creer que R. El punto fundamental es que S no necesita
estar justificado al creer que R para que esté justificado al creer que P. Esa exigencia sería equivalente a determinar que para que S esté justificado al creer que P, S debiese tener infinitas creencias
justificadas. Y eso, obviamente, es bastante diferente de decir que S debe tener infinitas razones
disponibles para creer que P. Como S tiene justificación para creer que R, entonces él puede llegar
INVENIO 14 (26) 2011: 39-45
43
Tito Flores
a estar justificado al creer que R, una vez que las condiciones para obtener creencia justificada
estén cumplidas. El caso es que S puede, pero no necesita, tener la creencia justificada de que R
para tener creencia justificada de que P. Dicho de forma más simple: S debe tener justificación
proposicional, y no justificación doxástica, para creer en las razones que utiliza.
En un aspecto importante, la justificación de las opiniones de S sigue un camino distinto de la justificación proposicional. Es siempre en virtud de haber otra opinión que el individuo está justificado al creer que P – que el individuo tiene justificación doxástica. Eso porque lo
que justifica el individuo al creer que P debe ser otra creencia del individuo. Diferentemente del
caso de la justificación proposicional, a la justificación de las opiniones de S – la justificación
doxástica – se agrega una dependencia de opiniones: S debe tener justificación para creer que
P si S tiene creencia justificada de que P, pero S necesita por lo menos otra opinión para tener
opinión justificada de que P. Sin embargo, el tipo de dependencia de creencias es preciso: S
debe – entre otras cosas – tener creencia de que R, si R es lo que justifica S al creer que P, pero
eso no implica que (a) la creencia de que R deba estar justificada para S, y que (b) S deba tener
creencia de que R1 – justificada o no – para estar justificado al creer que P.
No hay, en esa perspectiva, la necesidad de una serie infinita de creencias para que
el individuo esté justificado al creer en una proposición cualquiera. La creencia justificada
que P depende de una serie infinita de razones (porque si S tiene justificación para creer que
P entonces hay un conjunto infinito y no-repetido de razones disponibles para S) pero no una
serie infinita de creencias, justificadas o no, de S. Es por eso que la diferencia básica entre
infinitismo, coherentismo y fundacionalismo se establece relativamente a las condiciones en
las cuales S puede tener justificación y no a relativamente a las condiciones para la adquisición de creencia justificada – o sea, la diferencia entre esas teorías se define en términos de
justificación proposicional y no de justificación doxástica.
Es fundamental percibir que las proposiciones se tornan justificadas para un individuo de una manera y las creencias en esas proposiciones de otra. Hay una relación de dependencia entre tener justificación y estar justificado, una vez que la ausencia de justificación
proposicional implica ausencia de justificación doxástica. La existencia de la justificación
epistémica es asegurada por la fuerza de un determinado conjunto de proposiciones. Sin
embargo, la exigencia de infinitud y no-repetición es relativa apenas a la justificación proposicional. Lo que el individuo necesita para tener una opinión justificada de que P es que la
razón que lo justifica sea el contenido de una (otra) opinión del individuo y que él utilice esa
razón en el sostenimiento de la creencia de que P.
El detalle más interesante dice respecto al esclarecimiento de que una opinión epistémicamente justificada depende de otra opinión, que es una opinión para la cual es necesario que
el individuo tenga justificación, y no una opinión que esté justificada para él. De ese modo, el
infinitismo no afirma ni implica que sea necesario tener o sostener infinitas opiniones.
Así, la justificación doxástica depende de un conjunto de proposiciones cuyas características normativas son determinadas por el PEA y el PEC. La existencia de una opinión
justificada exige la presencia de otra opinión, una para la cual el individuo tenga justificación.
El hecho de que la estructura de la justificación doxástica no sea idéntica a la estructura de
la justificación proposicional aclara el punto fundamental de infinitismo, tal como nosotros
lo entendemos: la infinitud del infinitismo está relacionada apenas al conjunto de razones
disponibles a un individuo, y no a sus opiniones.
Recibido. 29/12/10. Aceptado: 24/02/11
44
INVENIO 14 (26) 2011: 39-45
Circularidad, arbitrariedad y regreso infinito de razones
notas BIBLIOGRÁFICAS
1 Algunos ejemplos recientes: Turri, John. An Infinitist Account of Doxastic Justification, inédito,
Aikin, Scott F, Meta-epistemology and the Varieties of Epistemic Infinitism, Synthese, 163, 2008.
Cling, Andrew. The Epistemic Regress Problem, Philosophical Studies, 140, 200. Peijnenburg,
Jeanne, Infinitism Regained, Mind, Vol. 116. 463, 2007. Bergman, Michael Is Klein an infinitist about doxastic justification? Philosophical Studies 134, 19 – 24., 2007, Klein, Peter. Human
Knowledge and the Infinite Progress of Reasoning, Philosophical Studies, 134. 1-17, 2005. Sosa,
Ernest. Two False Dichotomies: Foundationalism/Coherentism and Internalism/Externalism. Inédito.
2 En el contexto de la epistemología contemporánea, el término “creencia” es sinónimo de “opinión” y no posee carácter religioso de cualquier tipo. Los conceptos de verdad, falsedad y, lo que
es más importante aquí, justificación epistémica se aplican fundamentalmente a las opiniones o
creencias.
3 El infinitismo, aunque sin tener una articulación precisa, ya era refutado más o menos en esos
términos por Aristóteles y Sexto Empírico.
4 Klein, Peter. Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives,
13, J. Tomberlin (ed.), 1999, p. 298.
5 Klein, Peter. When Infinite Regresses Are Not Vicious Philosophy and Phenomenologial Research:
720-731, 2003. p. 728.
6 Klein, Peter. Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives,
13, J. Tomberlin (ed.), 1999. p. 299.
7 En epistemología, una teoría es internalista, si y solamente si, ella exige que todos los factores
necesarios para que una opinión sea epistémicamente justificada para un individuo dado, sean cognitivamente accesibles a ese individuo, internos a su propia perspectiva cognitiva. Cfr. Feldman,
Richard. Epistemology. New Jersey: Prentice Hall, 2003 y Korblith, Hilary (Ed). Epistemology:
Internalism and Externalism. Oxford: Blackwell, 2001.
8 “S” puede ser sustituido por un nombre propio cualquiera. Tiene la función de representar al individuo que cree u opina. “P” ocupa el lugar de una proposición. Así, la expresión “S cree que P”
debe ser entendida como “un determinada individuo, Sergio, cree que la proposición descriptiva
‘llueve afuera’, es verdadera”. En general, se supone que el contenido de las opiniones o creencias
de un individuo es formado por proposiciones.
9 Cfr. Fumerton, Richard. Metaepistemology and Skepticism. Maryland: Rowman and Littlefield, 1995.
10 Cfr. Foley, Richard. Working without a Net, Oxford University Press, 1993.
11 Algunos de los mejores ejemplos de la necesidad de distinción entre tener justificación y estar
justificado pueden ser encontrados en Leher, Keith. Theory of Knowledge. Boulder: Westview
Press, 2000, Williams, Michel. Unnatural doubts. Oxford: Blackwell, 1991 y Chisholm, Roderick
. Theory of Knowledge. New Jersey: Prentice Hall, 1989.
12 Human Knowledge and the Infinite Progress of Reasoning, Philosophical Studies, vol. 134, 2005, p. 5.
13 Esa es la crítica más común contra la posibilidad de una teoría infinitista. A ese respeto ver, por
ejemplo, Post, John. Infinite Regress of Justification and Explanation. Philosophical Studies 38:
31-52, 1980 y Black, Oliver. Infinite Regress of Justification. International Philosophical Quarterly
28: 421-37, 1988.
14 Cfr. Gillet, Carl. Infinitism Redux? A Response to Klein. Philosophy and Phenomenological Research 3: 711-19, 2003.
15 Human Knowledge and the Infinite Regress of Reasons. Philosophical Perspectives, 13, J. Tomberlin (ed.), 1999, p. 135.
INVENIO 14 (26) 2011: 39-45
45
46
UNA MIRADA ARGENTINA A LA ECONOMÍA BRASILEÑA
Los gobiernos de Cardoso y Lula
Diego N. Marcos - Gabriel D. Frontons*1
RESUMEN: El artículo analiza la evolución de la economía brasileña a partir de sus principales rasgos característicos, problemáticas, políticas económicas y desempeño. En la
primera sección, luego de una breve reseña de lo acontecido entre la segunda post guerra
y la década de 1970, se resaltan las dificultades enfrentadas durante los años ochenta. Endeudamiento, inflación y reducido crecimiento económico contextualizan aquellos años
y los comienzos de la década de 1990. En la segunda parte tomando como eje central el
Plan Real implementado en 1993 se reseñan los principales sucesos económicos de los
mandatos de Fernando Henrique Cardoso, entre ellos, el control de la inflación y las crisis
externas. Las políticas económicas aplicadas durante las gestiones de Luiz Inácio Lula da
Silva, sus primeros obstáculos y sus resultados son analizados en la tercera sección. Para
finalizar se señalan algunas perspectivas de la economía brasileña.
Palabras clave: economía brasileña - déficit fiscal - deuda - inflación - políticas económicas - tasa de interés - tipo de cambio - inversión extranjera directa - crecimiento económico.
ABSTRACT: An Argentine look to Brazilian economy: the governments of Cardoso and
Lula
The paper analyzes the evolution of Brazilian economy through its main distinctive features, issues, economic policies and performance. The first section provides a short review
of events since the end of WWII up to the 1970s and highlights the problems Brazil faced
during the 1980s. Indebtedness, inflation and a scarce economic growth characterized those years as well as the beginning of the 1990s. The second part focuses on the Real Plan
implemented in 1993 and describes the main economic events under Fernando Henrique
Cardoso’s office, including inflation control and foreign crisis management. The third section deals with the economic policies applied during the government of Luiz Inácio Lula
da Silva, the first obstacles it had to surmount and the results achieved. The final section
provides some points of view on Brazilian economy.
Key words: Brazilian economy - fiscal deficit - debt - inflation - economic policies - interest rate - currency exchange - direct foreign investment - economic growth
Introducción
Desde 1994 y hasta la actualidad Brasil atraviesa con éxito un proceso de dieciséis años de políticas económicas homogéneas -aunque con matices particulares- y sustentables. Este período comprende los dos mandatos consecutivos del socialdemócrata y econo-
* Diego N. Marcos es Licenciado en Economía egresado de la Universidad Nacional de Rosario y Director de la
Carrera Licenciatura en Economía en UCEL. E-mail: dnmarcos@ucel.edu.ar
 Gabriel D. Frontons es Licenciado en Economía egresado de la Universidad Nacional de Rosario y profesor e
investigador en UCEL. E-mail: gfrontons@yahoo.com.ar
El presente artículo es parte del proyecto de investigación “Argentina y Brasil: sus relaciones comerciales y posibilidades de integración con énfasis en la Provincia de Santa Fe y el Estado de Minas Gerais”, actualmente en
desarrollo en UCEL.
INVENIO 14 (26) 2011: 47-71
47
Diego N. Marcos - Gabriel D. Frontons
mista Fernando Enrique Cardozo -fundador del Partido de la Social Democracia Brasileña
(PSDB)-, y del metalúrgico y sindicalista Luiz Inácio Lula da Silva -fundador del Partido de
los Trabajadores (PT)-. Su tasa de crecimiento económico anual de largo plazo orilla el 5%,
mientras que veinte años atrás era solo del 2,5%. El PIB brasileño ha superado recientemente
al de España hecho que le permite posicionarse como la octava economía del mundo. Un
territorio de 8,5 millones de kilómetros cuadrados de valiosos recursos naturales habitados
por más de 194 millones de brasileños, que producen anualmente 1,6 billones de dólares,
posicionan a Brasil -entre otros factores- como líder indiscutible de América Latina. Hacia el
año 2025 Brasil aspira a alcanzar el quinto lugar en el ranking mundial de naciones cuando su
PBI supere los 5 billones de dólares. La magnitud, sus logros y el carácter de socio estratégico de la Argentina, vuelven relevante el estudio del pasado reciente, actualidad y perspectivas
de la economía brasileña.
I - Breve reseña de las décadas de 1960, ’70 y ’80.
Tras la Segunda Guerra Mundial la economía brasileña atraviesa etapas bien definidas y diferenciadas. Entre fines de la década de los cuarenta y 1970, sobre la base de una
estrategia de industrialización sustitutiva de importaciones con financiación de recursos estatales y externos, el PIB de Brasil crece a un ritmo acelerado superior al 7% anual.
Durante los años setenta, cuando la economía mundial atraviesa un profundo proceso
de ajuste depresivo a causa de shocks externos (crisis del petróleo, flexibilización cambiaria
y alzas de tasas de interés), Brasil opta por una estrategia desarrollista. En lugar de ajustar el
patrón de crecimiento a la nueva situación de inestabilidad financiera mundial, se profundiza
el proceso de industrialización basado en recursos financieras externos y públicos. Entre
1947 y 1980 la tasa anual de crecimiento económico alcanza el 7,4%, siendo la inflación
un aspecto no problemático, salvo durante unos pocos años en la primera parte de la década
de ‘60. La apertura financiera de los años setenta propicia un incremento extraordinario de
la deuda externa especialmente entre los años 1978 y 1982 durante los cuales se producen
fuertes aumentos en las tasas de interés internacionales. El excesivo nivel de gasto público,
y de la deuda interna y externa se debe a que el Estado asume, ante la falta de un sistema
financiero desarrollado y funcional, el papel de garante del crédito de largo plazo. Con los sucesivos shocks exógenos de finales de los años setenta y principios de los ochenta culmina el
patrón de financiación que sostenía el crecimiento de la economía brasileña. El Estado sufre
un proceso de creciente debilitamiento financiero asociado a la gran acumulación de pasivos
tanto en moneda nacional como en dólares. Entre 1970 y los primeros años de la década de
1980, la deuda externa de Brasil aumenta de 6.000 a 65.000 millones de dólares.
En la década de 1980 la frágil situación de las economías latinoamericanas afecta
a Brasil que alcanza una expansión de su PIB de solo el 1,7% promedio anual, nivel muy
inferior al registrado en las tres décadas anteriores. La crisis del modelo de desarrollo basado
en la sustitución de importaciones, junto a la crisis de la deuda externa, el fuerte incremento
del déficit público, la espiral inflacionista, y la crisis del sistema financiero internacional
(incrementos de los tipos de interés, disminución de la liquidez internacional y reducción
de los flujos de capitales extranjeros), llevaron a la economía brasileña a un cierto estancamiento. A partir de la denominada crisis de la deuda de 1982, y a posteriori del default de
México, Brasil sufre un severo corte en el suministro de recursos financieros que trae fuertes
desequilibrios en sus cuentas públicas. Un rasgo común de esta década de crisis es la alta
48
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
tasa de inflación. Los fuertes déficit fiscales y los mecanismos de propagación de precios, es
decir, elementos de indexación de precios, salarios e impuestos, son señalados como factores
explicativos. Hacia fines de los años ‘80 y comienzos de los ‘90, el país vive un proceso de
estanflación, con aceleración de la inflación hasta niveles cercanos a la hiperinflación y pobres registros de crecimiento económico.
La economía padece una espiral de inestabilidad y depresión, con grandes oscilaciones en sus principales variables, que se manifiesta en ciclos breves, como por ejemplo,
la crisis de 1981-83, la recuperación de 1984-86, y una nueva caída entre los años 1987 y
1989. El quiebre del patrón de desarrollo basado en la deuda pública, y los shocks exógenos
constituyen elementos centrales de la evolución macroeconómica de los años ochenta y comienzos de los noventa. Los coletazos externos se precipitan en la economía local a través de
ciertos mecanismos de transmisión, que acentuados por ineficaces políticas de estabilización
macroeconómica, llevan la tasa de inflación a niveles superiores al 200% anual. Brasil implementa varios planes de estabilización de precios de corte heterodoxo que tuvieron como
propósito reducir la escalada de precios, y que se materializaron a través de políticas de rentas
y controles de precios. En 1986 el Plan Cruzado, puesto en marcha por el gobierno de José
Sarney (marzo 1985 a marzo de 1990), es uno de los programas que con un éxito acotado a
unos pocos meses culmina con una aceleración generalizada de los precios. Otros tres fallidos intentos de estabilización, el Plan Bresser de 1987, el Plan Verano de 1989, y durante
la gestión de Fernando Collor de Mello (marzo de 1990 a octubre de 1992), el Plan Collor
-que propuso imprimir cambios profundos en la sociedad pero llegó a incautar recursos en
el sistema bancario-, se fueron sucediendo de la mano de severos trastornos monetarios y
cambiarios y crecientes tasas de inflación. Entre 1990 y 1992 Brasil enfrenta un proceso de
estanflación con una reducción de PIB por habitante del 10%, junto a una persistente y sostenida suba de precios.
II - El Plan Real
En 1993 durante el mandato del presidente Itamar Franco (octubre de 1992-diciembre
de 1995), pese a la importante recuperación de la economía,1 y el retorno de crecientes flujos de
IED, el problema inflacionario presenta situaciones traumáticas (2.470% anual) señalando las
prioridades en política económica. Bajo la conducción de Fernando Henrique Cardoso como
Ministro de Hacienda, y con el objetivo de combatir la hiperinflación a partir de un fuerte ajuste
fiscal, se pone en marcha a partir de junio de 1993 la primera etapa del Plan Real.
El nuevo programa además de su componente antiinflacionario, impulsa reformas estructurales en el funcionamiento de la economía, semejantes -aunque con algunos años de rezagos- a
las ensayadas por otros países de la región durante la década de 1990. Una mayor apertura de la
economía -tanto por vía del canal comercial como financiero- y el control de la tasa de cambio
son elementos centrales en la lucha contra la inflación. En un primer momento se implementa el
denominado Programa de Acción Inmediata que tiene por objeto alcanzar el equilibrio presupuestario, factor considerado clave para domar la inflación. Se aplican algunas medidas de ajuste
y de mayor control del gasto público, se fortalecen los ingresos fiscales, se producen cambios en
el funcionamiento de las entidades bancarias públicas y se privatizan algunas empresas.
La rápida reactivación del consumo -gracias al reestablecimiento del crédito-, y de la
inversión -especialmente destinada a la incorporación de nuevas tecnologías-, la apreciación
de la moneda nacional (Gráfico 3), el cambio de precios relativos a favor de los servicios,
INVENIO 14 (26) 2011: 47-71
49
Diego N. Marcos - Gabriel D. Frontons
cuentas fiscales menos desequilibradas, el ingreso de capitales foráneos -y su dependencia-,
y el mayor crecimiento de las importaciones respecto de las exportaciones, constituyen elementos característicos de los primeros años del plan. También se produjo una importante
reestructuración del sistema bancario pero a costa de cuantiosos recursos estatales.
En la segunda etapa del plan nace el ‘real’ como moneda nacional reemplazando al
anterior cruzeiro real en la paridad 2.750 igual a 1. El nuevo signo monetario es ahora respaldado por reservas internacionales, restringiéndose además las posibilidades de indexar
precios según la inflación pasada. En relación al dólar americano el real se fija en una paridad
1 a 1, preservándose el Ministerio de Hacienda la posibilidad de alterar a futuro tal relación.
Este conjunto de políticas surten un rápido efecto sobre el proceso inflacionario. El segundo
semestre de 1994 exhibe una tasa de inflación mensual cercana al 3%, sustancialmente inferior al 40% de la primera mitad del año. En 1995 la inflación alcanza en promedio el 1,7%
mensual, continuando luego su marcha descendente hasta principios de 1999.
Gráfico 1: Evolución de la tasa de variación anual media
del índice de precios al consumidor (diciembre a diciembre, en porcentaje)
Fuente: IBGE
El período 1994-1995 presenta resultados claramente positivos que se manifiestan
en la reducción de la tasa de inflación a partir del segundo semestre de 1994, y en el elevado
crecimiento del PIB (Gráfico 2). El sustento de ello es el alto nivel de inversión en relación
al producto (22%), la menor proporción de población en situación de pobreza, y el fuerte respaldo político al primer mandato de Cardoso. El desempleo alcanza un piso de 4,6% en 1995,
pero crece desde entonces durante el resto de la década, mientras que los ingresos reales de
los ocupados mejoran incluso hasta 1997.
Gráfico 2: Evolución de la tasa de variación del PIB
Fuente: CEPAL
50
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
En el frente externo, la reestructuración de la deuda en 1994 a través del Plan Brady,
más los ingresos provenientes de privatizaciones de empresas públicas y otras reformas,
impulsan el ingreso de una oleada de capitales extranjeros que permiten acrecentar las reservas internacionales hasta 1996. De esta manera, los alivios financieros alcanzados permiten
sortear con cierta holgura los impactos negativos del efecto tequila.
Desde el segundo semestre de 1994, en un contexto de apertura de la economía, se
produce una reducción de los precios relativos de los bienes (o transables en general) respecto a los servicios (o no transables), y una apreciación nominal de la moneda nacional. Hasta
fines de 1996 se opta por un ritmo de devaluación mensual inferior a la inflación, excepto durante los meses de impacto de la crisis mexicana. Desde entonces, y a fin de intentar contrarrestar el retraso cambiario generado, la conducción económica lleva la tasa de devaluación
a un ritmo algo por encima de la tasa de inflación (Gráfico 3). Durante el período de vigencia
del Plan Real, la economía brasileña presenta altas tasas de interés que atrae importantes flujos de capitales extranjeros, valorizan la moneda nacional y aceleran el endeudamiento. La
combinación de elevados intereses y dólar barato, al morigerar la demanda interna, restringe
las presiones inflacionarias.
Gráfico 3: Evolución del índice de paridad real-dólar
(ajustado por IPC, base 2005=100)
Fuente: CEI
Superado el efecto tequila y hasta el segundo semestre de 1997, los ingresos de fondos extranjeros se incrementan y permiten financiar el déficit de cuenta corriente e incrementar el respaldo del real.2 Las reservas internacionales del Banco Central se acrecientan hasta
1996 cayendo desde entonces tras la sucesión de crisis a partir del año siguiente (Gráfico 4).
Ya desde 1996 la situación de bonanza comienza lentamente a deteriorarse de la mano del
crecimiento de los déficit gemelos -fiscal y externo-, y el consecuente incremento de la deuda
pública, pese a los recursos extraordinarios por privatizaciones. Desde la perspectiva fiscal,
el saldo operativo de 1,3% del PIB alcanzado en 1994 no logra mantenerse, y desde 1995 y
al menos hasta 1998 presenta resultados fuertemente negativos superiores al 5%. En el plano
internacional, el superávit comercial del período 1991-1994 se revierte fuertemente en 1995,
alcanzando un rojo de 8.300 millones de dólares en 1997, mientras que el creciente déficit
de cuenta corriente supera los 33.000 millones en 1997 y 1998. El mantenimiento del tipo de
cambio en post de la estabilidad de precios, vis a vis, la búsqueda de mayor competitividad
del sector productivo necesaria para el restablecimiento de los equilibrios interno y externo,
marcan las posturas del debate económico de entonces.
INVENIO 14 (26) 2011: 47-71
51
Diego N. Marcos - Gabriel D. Frontons
Gráfico 4: Evolución de las reservas internacionales (en millones de dólares)
Fuente: Banco Central de Brasil
El panorama se vuelve más complejo con la llegada de los shocks externos, primero
desde Asia en 1997, y luego desde Rusia en 1998. El excesivo crecimiento de la oferta monetaria es parcialmente absorbido por el Banco Central a través de la colocación de nueva
deuda pública interna bajo la modalidad de bonos y letras. El resultado es un importante
incremento del stock de deuda pública en manos de inversores locales, y tasas de interés
sostenidas en valores elevados para alentar la llegada de capitales foráneos. Los shocks externos más el déficit fiscal y comercial incrementan los tipos de interés y permite contrarrestar
-aunque solo parcialmente- la fuga de divisas.
El creciente déficit de cuenta corriente y el paralelo incremento del endeudamiento,
sumado a la ausencia de un sólido sector financiero nacional, requiere obligadamente de elevados recursos financieros externos, sembrando así debilidades en la estructura macroeconómica.
Una vez más la vulnerabilidad externa pasa a ser el talón de Aquiles de la economía brasileña.
La apertura financiera -liberalización de la cuenta capital- en un contexto de globalización,
vuelve dependiente la marcha del PIB del flujo de capitales externos. Esta característica se presenta también en la época en otras economías latinoamericanas, como por ejemplo, la argentina.
El efectivo ingreso de capitales necesario para el financiamiento de la balanza de pagos
requiere pues de una política económica que mantenga elevada la tasa de interés. Hacia fines de
1997, y al menos hasta el primer semestre de 1999, la tasa de interés se mantuvo en valores muy
altos, superiores incluso al 30% anual, descendiendo desde entonces a un promedio del 18%
hasta fines de 2002. Una interpretación acerca de las elevadas tasas de interés en Brasil son los
variados roles que la misma desempeña. Por un lado actúa como mecanismo de estabilización
de precios, tanto a través del control de la demanda agregada, como de la tasa de depreciación.
También permite atraer capitales externos necesarios para financiar los desequilibrios fiscales y
de balanza de pagos. Estas dos grandes funciones de la tasa de interés la mantienen en valores
elevados en períodos de dificultades financieras. La contracara es que los elevados costos financieros, al mantener deprimido el gasto agregado, dificultan el desenvolvimiento de las actividades económicas, ralentizan el crecimiento y potencian la deuda pública sujeta a tasas variables.
La devaluación de enero de 1999
Ante tales características y condicionantes, la seguidilla de shocks externos de la
época -la crisis en Asia de 1997 y la crisis rusa de 1998- afectan seriamente el desenvolvi-
52
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
miento económico de Brasil. En enero de 1999 en un contexto de crecientes tasas de interés,
crisis de balanza de pagos y sobresaltos cambiarios, se precipita la devaluación del real. Brasil cambia el régimen cambiario de tipo fijo a uno de tipo flexible y administrado, y adopta
además un régimen de metas inflacionarias.3 A ello se adicionan esfuerzos fiscales a partir de
la sanción de la Ley de Responsabilidad y otras reformas estructurales.
Desde entonces, cuando la previsión de inflación supera lo pautado por el Banco
Central, su Comité de Política Monetaria (Copom), decide elevar la tasa de interés de corto
plazo, su principal instrumento. Sin embargo, ésto induce mayores niveles de endeudamiento
público y de riesgo país. El año finaliza con una economía estancada observándose recién el
año siguiente una cierta recuperación. Durante los años 2001 y 2002 los impactos de la gran
depresión de la economía argentina y la incertidumbre cambiaria perjudican el desempeño
del producto, y reduce el ingreso de capitales privados externos. Los cimbronazos financieros
vuelven inestable la coyuntura macroeconómica y debilitan el proceso de crecimiento económico. El siguiente gráfico muestra la dinámica de la inversión extranjera directa.
Gráfico 5: Evolución de la inversión extranjera directa (en millones de dólares)
Fuente: CEPAL
Derrotada la alta inflación, los condicionantes económicos -desequilibrios fiscales y
externos, dependencia de recursos financieros internacionales y el perfil de la deuda pública-,
influyen en la performance económica y en las posibilidades de aplicar con éxito las políticas
económicas. El contexto de alta movilidad de capitales financieros internacionales constituye
un elemento sensible en este esquema de funcionamiento de la economía de Brasil. Las marchas y contramarchas se encuentran estrechamente asociadas al superávit o déficit de la cuenta capital del balance de pagos. La política económica enfrenta la encrucijada de desalentar la
demanda cuando la inflación y/o el déficit financiero recrudecen versus incentivar el gasto en
épocas de recesión y/o sobrevaluación. La tasa de interés se convierte en el elemento central
de la política económica.
La depreciación de 2002 tuvo su eco en mayores precios internos. Al cierre del año
el denominado efecto pass-through, aunque parcial, se manifiesta acelerando la tasa de inflación y la inestabilidad. El índice de precios al consumidor, utilizado como meta inflacionaria
de la política monetaria, finaliza el año con un incremento acumulado del 12%, muy superior
al objetivo del 5,5%. Desde la perspectiva del comercio internacional, el alza del tipo de
cambio alienta una mejora de la balanza comercial, elevando el superávit comercial de 2002
a más de 13.000 millones de dólares frente a 2.500 millones del año anterior. El menor déficit
INVENIO 14 (26) 2011: 47-71
53
Diego N. Marcos - Gabriel D. Frontons
de la cuenta corriente alivia en parte los desequilibrios de la balanza de pagos.
La inflexible necesidad de recursos financieros internacionales destinados a cubrir
los desequilibrios de balanza de pagos genera una importante vulnerabilidad externa. Según
estimaciones del Banco Central, hacia fines de la década de 1990 los requerimientos financieros externos ascendían a más de 4% del PIB. Recién en el año 2002 el superávit de la
balanza comercial -propiciado por la depreciación, la consecuente alza de exportaciones y las
menores importaciones-, reduce las necesidades financieras externas al 1,9% del producto.
El Plan Real -y los hechos posteriores- derivaron en un extraordinario incremento del endeudamiento público llevando su carga a más del 55% del PIB en 2002. Este fenómeno es resultado
de la combinación de elevados costos financieros -el interés básico, la tasa Selic estuvo por encima
del 20%-, la devaluación de la moneda nacional, y la asunción por parte del Estado Nacional de los
pasivos de empresas privatizadas. La deuda externa global que a fines de 1993 ascendía a 145.000
millones de dólares, alcanza un máximo de 241.000 millones en 1999 para luego caer a 227.000
millones en 2002 (Gráfico 6). El elevado peso relativo de la deuda pública, aunque inferior al de
países europeos, sumado a su perfil de corto plazo y el predominio de títulos nominados en moneda
externa y a tasas de interés flexibles, entorpece la gestión de la política monetaria, fiscal y cambiaria.
Gráfico 6: Evolución de la deuda externa total (en porcentaje del PIB)
Fuente: CEPAL
Tras ocho años de gobierno el presidente Cardoso finaliza su mandato el 31 de diciembre de 2002 abatiendo la hiperinflación, consolidando la estabilidad de la moneda nacional, e introduciendo una mayor apertura de la economía, estrategia que se manifiesta en la
expansión del comercio internacional, y en la llegada de importantes inversiones extranjeras
en áreas privatizadas. En 1980 la inflación fue de 90%, cinco años después trepa a 226% y en
1990 alcanzó a 2.940%. Cuando Cardoso culmina su gestión la inflación había sido reducida
al 13%. La década de 1990 cierra con una tasa de crecimiento del PIB del 2,8% promedio
anual, mejorando su desempeño respecto de los años ochenta.
El alto endeudamiento público y los niveles de desigualdad -durante el mandato de
Cardoso se observan coeficientes de Gini en torno a 0,60-, son percibidos como asignaturas
pendientes. La incertidumbre prevaleciente y las malas condiciones en los mercados financieros descriptas anteriormente, llevan a una desaceleración del PIB durante los años 2001
y 2002, y a una caída de la inversión y del empleo. El traspaso de mando tiene lugar en un
contexto de virtual estancamiento que se manifiestan en tasas de desempleo por encima del
11%. La falta de confianza en el rumbo de la futura política económica del gobierno de Lula
da Silva vaticina sus primeras dificultades.
54
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
III - Los primeros difíciles momentos del gobierno de Lula
Los sondeos previos a las elecciones presidenciales de 2002 favorables al triunfo de
Luiz Inácio Lula da Silva (Lula), identificado como un líder de centro-izquierda agitan la incertidumbre y la desconfianza en los mercados financieros internacionales.4 El temor por las políticas a ser aplicadas por un gobierno ‘de los trabajadores’ asociado a ideas radicales, despierta
percepciones negativas acerca del devenir político y económico de la nación (crisis electoral).
Los trastornos económicos resultaron significativos durante los primeros meses de gestión.
Como es de esperar las primeras señales se manifiestan en el plano financiero a través de mayores tasas de riesgo país, salida de capitales de corto plazo y un menor ingreso de divisas en
concepto de IED.5 Las condiciones crediticias se endurecen especialmente para empresas con
pasivos nominados en moneda extranjera. Hacia fines de año el riesgo país superaba los 2.300
puntos básicos, mientras que la depreciación del real frente al dólar -4 reales por dólar en octubre de 2003- alcanza el 50% en términos nominales y el 20% en términos reales (Gráfico 9).
La economía atraviesa una coyuntura negativa con serias dificultades en materia financiera que hace recordar lo sucedido recientemente en la Argentina. Resulta elevado el temor a
un incumplimiento no solo de su deuda externa, sino también de su deuda interna en gran parte
indexada al creciente tipo de cambio. Sin embargo, Lula no dudó en poner en marcha políticas
que fortalecerían la estabilidad económica. Hacia mediados de 2003 el presidente enfrenta
algunas críticas de sus propios partidarios, ya que las duras políticas aplicadas por el Ministro
Palocci -contrarias al partido de los trabajadores- no logran dar buenos resultados. A ello se adiciona un primer semestre de 2003 en el cual la administración atraviesa una fase de transición,
durante la cual se debía aplicar rígidas medidas y reformas, a priori impopulares y contrarias a
su plataforma de campaña, pero necesarias a fin de alcanzar la ansiada estabilidad.
La alta tasa interés Selic permite mantener un diferencial positivo entre los activos brasileños y los extranjeros, que vuelve atractivas las inversiones financieras, e incentiva el ingreso
de capitales que aprecian el real. Es decir, la tasa Selic sumada a la apreciación del real arroja un
plus positivo respecto de los rendimientos internacionales y el riesgo Brasil. Sin embargo, en un
contexto de alto endeudamiento y temor de incumplimiento como el que presentaba Brasil por
entonces, un amplio diferencial de tasas lleva a un nuevo incremento de la deuda, y a una mayor
percepción de riesgo que acelera la fuga de divisas y desvalorizan la moneda. El mayor endeudamiento y los altos tipos de interés exacerban el nivel del riesgo y produce una nueva salida de
capitales que desvalorizan la moneda. Se instala así un círculo vicioso que suele acabar en una
crisis cambiaria con los consiguientes efectos negativos sobre el stock de deuda.6
Luego de la depreciación de la moneda, el objetivo de estabilidad de precios requiere
de políticas fiscales restrictivas que desalienten la corrección del tipo de cambio a los salarios y
a otros precios internos. El superávit fiscal colabora en el sostenimiento del tipo de cambio (y
por ende en la inflación), genera mayor capacidad de pago y mayor certidumbre entre los inversores, lo que redunda en menores niveles de riesgo, tasas de interés y endeudamiento. Este positivo encadenamiento puede lograrse únicamente con fuertes esfuerzos fiscales que contengan la
actividad. La política fiscal aplicada por el gobierno de Lula, al tener como objetivo prioritario
la estabilidad de precios (y del tipo de cambio), requirió lamentablemente e inexorablemente
relegar por un tiempo el objetivo “crecimiento económico”. Las primeras reformas fiscales y
del sistema de previsión social colaboran con el ajuste fiscal y metas inflacionarias.7
En el año 2003 el superávit primario de 4,25% del PIB comprometido con el FMI
es superado, no obstante, el abultado pagos de intereses de la deuda revierte ese resultado,
INVENIO 14 (26) 2011: 47-71
55
Diego N. Marcos - Gabriel D. Frontons
mientras que el endeudamiento neto del sector público supera el 55% del PIB. La creciente
participación de títulos públicos indexados a la tasa Selic profundiza su importancia como
principal instrumento de la política monetaria al tener como objetivo controlar la inflación y
atraer capitales del exterior. El ajuste en el gasto público y la mayor presión en un contexto
de altos tipos de interés conducen al estancamiento afectando el nivel de ingresos públicos.
La recaudación fiscal de 2003 se reduce en relación al PIB por los menores ingresos provenientes de los impuestos a la producción. El superávit primario contribuye a estabilizar el
tipo de cambio y, a través de este, a controlar el alza de precios, pero los altos tipos de interés
generan efectos dinámicos negativos que deterioran la capacidad de obtener ingresos fiscales.
Con el transcurso de 2003 las tasas de variación del PIB mejoran paulatinamente, no
obstante, la recuperación no es percibida como tal, y los pronósticos vaticinan un virtual estancamiento. Las severas políticas fiscales y monetarias se manifiestan en el primer semestre
del año a través de una fuerte contracción de la demanda interna. La inversión evoluciona
desfavorablemente retrocediendo a solo 18% del PIB, mientras que el ingreso real dañado
por la inflación reduce el consumo un 3%.
Las prioridades pasan por alcanzar la ansiada estabilidad, restablecer la confianza
de los mercados financieros alejando las posibilidades de default, sostener y profundizar
el superávit fiscal, y avanzar tanto en políticas sociales -por ejemplo a través del programa
hambre cero-, como en reformas institucionales.8 El panorama del segundo semestre de 2003
combina elementos del ajuste inicial con señales de recuperación económica. La continuidad
y profundización de una política fiscal muy austera -con objetivos de 4,25% del PIB de superávit fiscal- y de una política monetaria restrictiva y con metas inflacionarias, mejoran las
expectativas de los agentes, alcanzándose en la segunda mitad del año una cierta estabilización en las principales variables económicas.
La tasa de inflación anual cae al 8,5% y la moneda nacional cambia de tendencia y
se aprecia hasta los 2,9 reales por dólar. También se reduce sustancialmente la tasa de riesgo
país a niveles cercanos a 600 puntos básicos y la tasa de interés a menos del 20% anual. Las
mejores perspectivas sobre la inflación, los menores indicadores de riesgo país y el cumplimiento de las metas de superávit primario permiten reducir los tipos de interés, y desde entonces y hasta fines de 2003, la tasa Selic se reduce del 25% al 16,5%. Esta caída es de gran
trascendencia tanto para el sector público como privado, ya que reduce el costo financiero y
alienta una mayor demanda. En diciembre el Copom evalúa positivamente la tendencia decreciente aunque todavía presenta niveles elevados. A partir de entonces la autoridad monetaria se expresa a favor de mantener una tasa de interés que permita compatibilizar los objetivos
de equilibrio interno y externo en un marco de estabilidad de precios.
Según el Banco Central, la expectativa de crecimiento del PIB se acelera con el transcurso del año, no obstante, resulta inferior al 1%. Las reformas fiscales y previsionales son
percibidas positivamente al reducir los desequilibrios públicos y liberar una mayor porción
de los recursos externos disponibles. Se alcanza la meta de superávit fiscal y los flujos de IED
e inversión de cartera vuelven a ingresar. Los acuerdos con el Fondo Monetario Internacional permiten mejorar los indicadores de liquidez y las calificaciones crediticias (de B a B+),
honrándose además las obligaciones financieras contraídas.
En 2003 la producción primaria (soja, maíz y frijoles) mejora sustancialmente respecto al año anterior, registrándose según el Instituto Brasileño de Estadística y Geografía
(IBGE), una cosecha superior a los 120 millones de toneladas. Los mayores precios internacionales alientan también una coyuntura favorable en el sector. Por el lado industrial, el
56
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
desempeño negativo de los primeros meses de 2003 comienza lentamente a revertirse recién
a partir de la segunda mitad del año. Las actividades comerciales sufren una evolución negativa, al tiempo que los servicios se expanden muy levemente.
El sector externo continúa manifestando mejoras en sus colocaciones. El comercio
internacional presenta un fuerte incremento de las exportaciones y una reducción de las importaciones. La depreciación de 2002 alienta las ventas externas que superan, según estimaciones del Instituto Nacional de Pesquisas Económicas, los 67.000 millones de dólares
en 2003. A pesar del contexto desfavorable, las ventas externas resultan ser el único componente de la demanda con resultados positivos, convirtiéndose en un factor dinámico de la
economía. No obstante, su baja contribución al producto no permite un cambio de las malas
condiciones generales. Por su parte, la debilitada demanda y el ajuste interno se encargan
de reducir las importaciones hasta los 48.000 millones de dólares. El creciente superávit comercial, superior a los 2.000 millones de dólares mensuales, y el saldo positivo de la cuenta
corriente de 0,9% del PIB, reducen la vulnerabilidad externa y aminoran las presiones del
mercado de divisas sobre la tasa de inflación. Acelerar la capacidad exportable es considerada una estrategia adecuada a la necesidad de reducir la incidencia de los pagos de la deuda
pública externa, además de liberar recursos para la expansión del sector privado. Para lograr
esto último se juzga necesario invertir en infraestructura económica y social y una política
industrial que anime nuevas decisiones de inversión.
En las seis principales regiones metropolitanas (Recife, Salvador, Belo Horizonte,
Rio de Janeiro, São Paulo y Porto Alegre) la Encuesta Mensual de Empleo del IBGE muestra
una tasa de desempleo del 13%, manifestando una leve alza respecto al año anterior. A pesar
de la creación de 800 mil nuevos puestos de trabajo el reducido crecimiento económico de
2003 no logra reducir el paro.
Estas políticas ‘ortodoxas’, a priori paradójicamente contrarias al origen partidario
de Lula, propiciaron -luego de varios meses- una mayor confianza en los circuitos financieros
internacionales, hecho que redundó en una paulatina reducción de la tasa de cambio y de la
inflación. El cambio favorable en las expectativas predispone el comienzo de un nuevo período de crecimiento económico. En los dos últimos trimestres de 2003 se avizoran algunos
tenues signos de recuperación.
Gráfico 7: Evolución de la tasa de variación del PIB
Fuente: CEPAL
INVENIO 14 (26) 2011: 47-71
57
Diego N. Marcos - Gabriel D. Frontons
El control de la tasa de inflación, la reducción del costo financiero, el significativo
superávit fiscal, y el menor déficit de cuenta corriente, constituyen sólidos pilares del próximo período de despegue económico (2004-2008). Estos fundamentos presagian una importante recuperación de los componentes de la demanda, especialmente del consumo y de la
inversión. También el frente externo resulta alentador dado el reciente despegue exportador.
Así, a partir del año 2004 la economía de Brasil comienza a transitar una etapa de altas tasas
de crecimiento del producto y menores niveles de desempleo. No obstante, el volátil contexto
internacional, y su aún alta incidencia sobre la economía nacional, vuelve necesario apuntalar
los recientes logros alcanzados. El sostenimiento del superávit fiscal y el equilibrio externo
continúan siendo elementos centrales de una buena gestión económica.
El superávit fiscal primario resulta indispensable para reducir el peso de la deuda pública en relación al producto. También se considera importante mejorar las condiciones y el
perfil del endeudamiento público (tasas de interés flexibles, corto plazo de los vencimientos,
y alta incidencia de pasivos nominados en moneda extranjera), a fin de reducir la exposición
y vulnerabilidad de la economía a los shocks externos.
En 2003 Lula ahuyenta los fantasmas de default y devuelve la confianza a los mercados internacionales. El costo afrontado no ha sido menor al renunciar al crecimiento en pos de
la credibilidad y la estabilidad. La política monetaria de metas de inflación, combinada con la
austeridad de la política fiscal al servicio del objetivo del superávit primario, en un contexto de
expectativas no favorables, derivó en un estancamiento del producto. El crecimiento se sacrificó en aras de la estabilidad mediante la consecución de un bajísimo nivel de inversión situado
en torno al 17% del PIB, una intensa caída de los salarios reales del 12,7%, y un aumento del
desempleo. Las políticas implementadas durante el primer año de gobierno pueden concebirse
como de ajuste, ordenamiento y estabilización, siendo las mismas en extremo ineludibles y
base de un futuro más promisorio. El año 2003 puede señalarse como de profundización de las
políticas macroeconómicas de estabilización, que a costa de un lento crecimiento económico,
generaron superávit fiscal y alivio externo. El virtual estancamiento -la tasa de crecimiento del
PIB fue de solo 0,1%- fue la moneda de cambio de la estabilización, generando consecuencias
no deseadas por el lado de la inversión, el consumo, el empleo y los salarios reales.
Superado el complejo primer año de mandato, con una macroeconomía más ordenada, el nuevo objetivo gubernamental es comenzar a transitar un sostenido sendero de progreso económico y social, para lo cual se evalúa necesario elevar la participación de la inversión
al 21% del producto. También la exportación se juzga como un pilar del nuevo esquema de
desarrollo implementándose políticas industriales y de comercio exterior.
La expansión de 2004 a 2008
Para 2004 se estima un incremento del producto del 3,6%, apoyado en el gasto de
consumo, inversión, y en la demanda externa. El consumo se expande a una tasa del 5%
apoyado en la recuperación de los ingresos reales, menores costos financieros (la tasa Selic
desciende) y mayores niveles de préstamos. La inversión crece por encima del 6%, puesto
que las empresas han mejorado su situación financiera gracias a la apreciación cambiaria de
2003 y a las menores tasas de interés. La estabilidad de precios manifestada en la reducción
a un dígito de la tasa de inflación anual coadyuva en la recuperación de aquellos dos componentes. Por su parte, la política fiscal continúa persiguiendo un superávit primario de 4,25%
del PIB a fin de reducir el endeudamiento.
58
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
Superadas las dificultades iniciales, desde el segundo semestre de 2003 la economía
brasileña transita un ciclo expansivo de más de cinco años de duración, que finaliza a mediados de 2008 con motivo de la crisis financiera internacional. Durante ese lapso de aproximadamente 64 meses el producto se expande al 5% promedio anual, un ritmo muy superior
al observado en las últimas décadas. Entre los factores explicativos de naturaleza estructural
se señala la menor vulnerabilidad externa -por los menores niveles de déficit fiscal y de endeudamiento del sector público, y el fuerte ingreso de capitales extranjeros-, la consolidación
de un período de estabilidad de precios y las políticas sociales y de aliento a la producción
(Programa de Desenvolvimiento Productivo).9 Luego de seis años de bajos registros de ingresos de IED (2001-2006), entre 2007 y 2009 fluyen más de 85.000 millones de dólares que
permite acelerar la acumulación de reservas internacionales del Banco Central.
Gráfico 8: Evolución de las reservas internacionales (en millones de dólares)
Fuente: Banco Central de Brasil
El Programa de Aceleración del Crecimiento tiene por objeto dirigir importantes
recursos públicos a la mejora de la infraestructura, la logística, la energía y los proyectos
sociales. Aproximadamente 200.000 millones de euros son volcados entre 2007 y 2010 a más
de 2.400 obras, previéndose otros importantes desembolsos en los próximos años.
En el plano de las políticas sociales, el gobierno de Lula profundiza y amplía el programa Bolsa Escola -iniciado por Cardoso- a través de Bolsa Familia. El mismo consiste en
el otorgamiento de ayudas monetarias a familias pobres con niños, bajo la condición de que
los mismos asistan a un establecimiento educativo y posean las dosis de vacunación correspondientes a su edad. El mega programa estatal posee más de 12 millones de beneficiarios
directos y alcanza a 50 millones de brasileños, cifras que lo ubican como uno de los planes
de erradicación de la pobreza más grandes del planeta. Bolsa Familia permite reducir -aunque
de manera insuficiente- los niveles de desigualdad en la distribución del ingreso -de los más
altos de la región- hecho que se manifiesta en la reducción del coeficiente de Gini de prácticamente 0,58 en 1997 a 0,52 en 2008.
Con respecto al mercado de trabajo durante los gobiernos de Lula -a excepción del
primer año y medio- la tasa de desempleo mensual se reduce continuamente desde niveles
superiores al 12% en 2003 y 2004, hasta quebrar la barrera del 6% al final de su segundo
mandato. Entre 2004 y 2010 el salario mínimo nominal mensual ha trepado de 240 a 510,
significando un alza del 56% en términos reales.10 El grupo poblacional perteneciente a la denominada clase D y E, que posee ingresos mensuales inferiores a 260 dólares, ha disminuido
INVENIO 14 (26) 2011: 47-71
59
Diego N. Marcos - Gabriel D. Frontons
su participación en el total poblacional del 47% en 2003 al 32% en 2009. Este segmento ha
sido incorporado a la clase media, cuenta con ingresos mensuales entre 620 y 2.700 dólares,
y comprende al 53% de la población brasilera.
Desde 2003 las elevadas tasas Selic -dirigidas a contener la inflación- y el fuerte
ingreso de capitales externos aprecian sistemáticamente el real. El mayor y mejor acceso a
los mercados financieros internacionales favorecen el proceso de expansión. Entre 2003 y
2007 el peso de la deuda externa brasileña en relación al producto se reduce notablemente,
siendo actualmente baja su incidencia en cotejo a otros países de la región (Gráfico 11). La
confianza de los inversores es sustentada en las prácticas ortodoxas del gobierno referentes a
estabilidad de precios y equilibrios macroeconómicos básicos. Esto se manifiesta en la paulatina reducción de los niveles de riesgo país hasta comienzos de 2008. El Índice de Bonos de
Mercados Emergentes (EMBI) de Brasil cae de valores superiores a los 1.000 puntos básicos
en 2003 hasta los 300 puntos de comienzos de 2008.
La internacionalización de la economía brasileña se refleja tanto a partir de la adquisición de empresas en el extranjero -argentinas entre ellas- como por la radicación de nuevas
unidades productivas. En los últimos años el acceso al crédito por parte del sector empresarial brasileño junto a la creciente apreciación del real, favorece este proceso al volverse
menos costosa la compra de divisas destinadas a tales inversiones. Sus multilatinas acumulan
en el exterior un stock de capital superior a 150.000 millones de dólares.
El incremento de las importaciones asociado al crecimiento económico, junto a la
continua apreciación del real, reducen en 2008 el superávit comercial de 50.000 a 30.000
millones de dólares, siendo negativa la cuenta corriente. El aumento de las exportaciones
de 2008 es resultado exclusivo del incremento del 26% en los precios, ya que las cantidades
físicas disminuyen un 2,5%, cifra que para los bienes manufacturados alcanza el 5%. El caso
de las importaciones es más equilibrado, con un 22% de aumento en los precios y un 18% en
las cantidades. El saldo de transacciones corrientes cambia de un leve superávit en 2007 a un
marcado déficit en 2008, mientras que el superávit de la cuenta capital, pese a una importante
reducción, logra financiar el déficit de cuenta corriente. En el último lustro, Brasil quintuplica
sus exportaciones pese al tipo de cambio ‘bajo’
Gráfico 9: Evolución del índice de paridad real-dólar (ajustado por IPC, base 2005=100, línea)
e índice de cantidad de exportaciones (base 2006=100, barras)
200
180
160
145
140
120
127
105
136
123
103
100
100
188
89
79
80
60
40
20
49
54
59
1999
2000
2001
64
2002
73
89
97
100
106
103
2004
2005
2006
2007
2008
75
66
92
0
2003
2009
2010
Fuente: CEI y CEPAL
En relación al PIB la deuda pública de 2008 es del 46,2% y está compuesta mayoritariamente por reales. En términos de plazos, la situación también ha mejorado al disminuir la
60
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
porción de vencimientos a corto plazo. Otros indicadores descriptivos del perfil de la deuda
muestran ciertos progresos. Los coeficientes de servicio de deuda con respecto a exportaciones y producto disminuyen respecto de 2007. Durante 2008 las cuentas públicas presentan
una importante mejora ya que el superávit primario de 4,1% del PIB supera el 3,7% alcanzado en 2007. Esto es fruto del mayor crecimiento de la recaudación por sobre los gastos. El
pago de intereses disminuye de 6,05% a 5,73% del PIB. Como resultado, el déficit nominal
es menor: 1,6% del PIB en 2008 en comparación al 2,1% del año anterior.
La crisis financiera internacional
En el último trimestre de 2008 el deteriorado contexto internacional altera severamente el comportamiento de la actividad económica brasileña, originando un quiebre en la
tendencia observada desde 2004. En primera instancia el impacto de la crisis se manifiesta
especialmente sobre el sector financiero, no obstante, las secuelas sobre el resto de la economía, pese a ser amortiguadas por ágiles y rápidas políticas económicas anticíclicas, resultan
inevitables. Tras registrar un crecimiento del producto del 5,1% en 2008, a partir del último
trimestre del año, la crisis afecta al sector real de la economía brasileña, interrumpiendo así
un largo período de expansión. Durante los tres primeros trimestres de 2008 el incremento
del PIB respecto del año anterior se ubica por encima del 6%, pero en los últimos meses se
desacelera al 1,8%, percibiéndose claramente los impactos externos.11 En el primer trimestre
de 2009 el efecto resulta ser mucho mayor. Mientras que otras naciones padecen con mayor
intensidad la menor demanda norteamericana, la economía brasileña, cuyo principal cliente
es China, apenas se resiente durante dos trimestres consecutivos (cuarto de 2008 y primero de
2009). El año 2009 cierra con una variación negativa del PIB por habitante del 0,2%. Desde
la perspectiva sectorial, la producción industrial sufre un fuerte revés en la última parte de
2008, mientras que la actividad agropecuaria y los servicios presentan solo leves caídas. El
shock también se manifiesta en un menor nivel de empleo y despidos durante la última parte
de 2008 y el primer semestre de 2009. Las exportaciones de bienes de 2009 retroceden un
29% y la inversión cae significativamente.
La reversión de los factores que precedentemente habían impulsado la expansión
del nivel de actividad durante 2004-2008, precipitan la crisis sobre la economía de Brasil y
otras de la región. En primer término la demanda mundial es afectada tanto por la recesión
de las principales economías desarrolladas, como por la desaceleración del crecimiento en
las economías emergentes, especialmente en China. El producto mundial disminuye en 2009
aproximadamente un 2%, dejando atrás el 1,8% de 2008. Para los países desarrollados la
caída supera el 2%, en tanto que para los países en desarrollo el crecimiento fue del 3,3%.
El intercambio comercial alcanza en 2008 valores récord, no obstante, el crecimiento
se detiene a partir del mes de octubre. En diciembre se reducen las exportaciones y en enero
de 2009 caen tanto las ventas como las compras externas. Las exportaciones tiene una tasa de
crecimiento del 29% durante el periodo enero-septiembre de 2008, pero finalizan el año con
un alza del 23% en comparación al año anterior, debido al menor crecimiento de octubre, noviembre y a la reducción del 3% en diciembre. Las importaciones muestran un crecimiento del
53% acumulado hasta septiembre, pero del 44% cuando se considera el total anual. El saldo
comercial muestra un superávit de casi 25.000 millones de dólares, un 38% inferior al de 2007.
El volumen del comercio mundial se contrae históricamente en el año 2009. La menor demanda
mundial -inevitable mecanismo de transmisión- impacta negativamente sobre las exportaciones
INVENIO 14 (26) 2011: 47-71
61
Diego N. Marcos - Gabriel D. Frontons
de Brasil, que retroceden 45.000 millones de dólares, al pasar de los 197.000 en 2008 a 152.000
millones de dólares en 2009. La desaceleración del ritmo de expansión de las exportaciones
es pronunciada y generalizada en el último trimestre de 2008. La información de los primeros
meses de 2009 confirma también este nuevo escenario: en el primer bimestre las exportaciones
retroceden un 26% en el cotejo interanual. En enero de 2009 se perciben claramente los efectos
de la crisis: las exportaciones disminuyen un 23% y las importaciones el 13%, generando el
primer déficit comercial mensual desde marzo de 2001. En febrero la balanza comercial vuelve
a presentar superávit, debido a una fuerte caída de las importaciones (31%).
Otro factor determinante de la crisis son los menores ingresos de exportación asociados a la significativa caída de los precios internacionales de las materias primas. Desde
agosto de 2008 y hasta febrero de 2009 los menores precios del petróleo y subproductos, oleaginosas, café, azúcar, carne bovina y mineral de hierro -principal producto de exportaciónafectan fuertemente los ingresos de exportación. Excluidas las materias primas energéticas el
decremento de los precios internacionales es del 30%.
Gráfico 10: Evolución del índice de precios de las materias primas (base 1990=100)
Fuente: Banco Mundial - FMI
El 2008 finaliza con un mayor nivel de reservas internacionales aunque con un crecimiento más atenuado respecto de la fuerte acumulación de los últimos años. Si bien hasta
septiembre existe un ritmo menor de crecimiento respecto de años anteriores, a partir de
octubre las reservas comienzan incluso a decrecer debido a la política de sostenimiento del
valor del real frente a las presiones reinantes a nivel internacional. En octubre de 2008 las
reservas llegan al valor máximo de 209.000 millones de dólares, pero a fines de año caen a
206.000 millones de dólares, y a 199.000 a mediados de febrero de 2009. En el mercado de
divisas la tasa de cambio alcanza un mínimo de 1,5 reales por dólar en agosto de 2008, no
obstante, comienza luego a depreciarse, tendencia que se profundiza en septiembre y octubre
cuando el dólar se cotiza a 2,5 reales. A partir de diciembre disminuye la volatilidad que el
tipo de cambio nominal muestra en los dos meses anteriores, y se mantiene en forma más
estable en un promedio de 2,3 reales por dólar, nivel semejante al de diciembre de 2005.
A partir de marzo de 2008 se registra un importante avance inflacionario que se detiene en agosto, mes en el que los precios mayoristas presentan una caída del 0,8%. A partir de
entonces la tendencia es de clara reducción de la tasa de inflación, llegando a febrero de 2009
con variaciones negativas de los índices mayoristas. El régimen de metas de inflación que
62
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
practica el Banco Central de Brasil obliga a las autoridades a sucesivos aumentos de la tasa
de referencia durante gran parte de 2008. Del 11,25% vigente en enero se pasa al 13,75% en
septiembre -mes de mayores repercusiones en el plano internacional-, valor que se mantiene
hasta fin de año. No obstante, frente a la disminución de las expectativas inflacionarias y el
advenimiento de la crisis financiera, en las reuniones del Copom de enero y marzo se decide
reducir la tasa 100 y 150 puntos, llevándola nuevamente a 11,25%, nivel similar al de principios de 2008 y el más bajo desde su creación en 1986.
Durante la crisis el Banco Central aplica una política expansiva reduciendo la tasa de
interés a fin de alentar la alicaída demanda agregada. También se recortan los encajes bancarios con el objeto de recomponer la liquidez y el crédito para el financiamiento de bienes
de consumo durables y de inversión para empresas públicas y privadas. Los resultados son
satisfactorios especialmente por la dinámica de los préstamos otorgados por la banca pública. Más allá de las repercusiones negativas originadas por la crisis internacional, el sector
financiero local logra atravesar la misma sin grandes cimbronazos ni problemas de liquidez.12
Su sólida regulación y el status de economía emergente favorecen su desempeño durante el
shock externo. Una banca de pequeños ahorristas y deudores, con baja presencia relativa de
bancos extranjeros, junto a inversiones financieras respaldadas en títulos de la deuda pública,
y con bajos niveles de endeudamiento en dólares, evitan la exposición a la crisis de los activos tóxicos. También los fuertes niveles de capitalización de las entidades coadyuvan durante
los meses más conflictivos. En Brasil el sector financiero cuenta con una gran presencia de
entidades estatales, un importante número de participantes privados y bajos niveles de concentración.13 La banca pública suele ser utilizada como herramienta anticíclica acelerando
los préstamos al sector fabril en momentos de debilidad macroeconómica. El Banco Central
-a pesar de exigir elevados niveles de requerimientos- no pierde de vista los parámetros de
crédito y liquidez. Más allá de la fuerte recuperación del PIB en 2010 y las expectativas favorables para los próximos años, la delicada situación de algunas economías desarrolladas
enciende señales de alerta que reclaman una reforma del sistema financiero internacional.
Brasil, al igual que otros países latinoamericanos, implementa entre fines de 2008 y
comienzos de 2009 una serie de medidas de política económica destinadas a sortear el shock
externo. El énfasis en la política fiscal se aprecia en la reducción temporaria de cargas tributarias aplicadas al sector industrial, construcción, equipamiento del hogar y venta de automóviles. Se aplican estímulos para alentar el consumo privado a través de menores alícuotas
del impuesto a la renta de las familias y mayores plazos para el pago de otros impuestos.
También se acelera el gasto público vía subsidios sociales tendientes a la redistribución del
ingreso, planes de construcción de viviendas, energía y otras medidas orientadas al sector
empresarial. La expansión del programa Bolsa de Familia junto a planes de crédito para
consumo permiten sostener la alicaída demanda.
Recuperación y actualidad
En relación a economías desarrolladas, Brasil estuvo menos expuesto a las turbulencias
externas, logrando alcanzar una rápida recuperación. En 2009, cuando la economía mundial
cae en una profunda recesión, Brasil exhibe una caída de solo 0,2% del PBI, un resultado más
que positivo considerando el contexto mundial. Desde el tercer trimestre de 2008 las políticas
económicas señaladas anteriormente impactan positivamente, al tiempo que el propio gobierno
insiste en que la economía nacional no será tan afectada como las europeas, previéndose una
INVENIO 14 (26) 2011: 47-71
63
Diego N. Marcos - Gabriel D. Frontons
recuperación superior al 7% para el año 2010 y 4% para 2011. La breve depreciación del real
junto al rápido rebrote de los precios internacionales de los commodities, ayudan a la recuperación de las exportaciones y de la economía a partir del segundo semestre de 2009.
En la primera parte de 2009, en pleno apogeo de la crisis mundial, un hecho sorprendente de la administración Lula es el otorgamiento de un préstamo de 10.000 millones de
dólares del Estado Brasileño al Fondo Monetario Internacional. El mismo le permite a Brasil
pasar a integrar el reducido grupo de naciones donantes de la institución, y ganar un nuevo
reconocimiento a nivel global. Actualmente Brasil ha suministrado a organismos supranacionales aproximadamente 14.000 millones de dólares, lo que seguramente propiciará su mayor
participación en el Fondo Monetario Internacional y el Banco Mundial.
Rápidamente morigerados los efecto nocivos de la crisis, Brasil comienza a dejar sin
efecto muchas de las medidas aplicadas. La alta tasa de crecimiento del PIB de 2010, manifiesta la efectividad de las medidas aplicadas desde fines de 2008 y la breve duración de la recesión en relación a economías desarrolladas. Las reducciones en las alícuotas de impuestos
a ciertas industrias son removidas, mientras que el Banco Central frena la disminución de los
tipos de interés, y de la cantidad de dinero a través del compulsorio, instrumento del Banco
Central para aumentar o disminuir el dinero circulante.14
A continuación se identifican algunos logros alcanzados durante los dos mandatos
del presidente Lula da Silva:
§ La estabilidad de precios, que medida a través del Índice de Precios al Consumidor Amplio
(IPCA), se manifiesta en una tasa de inflación anual promedio inferior al 6% desde el año 2005.
§ En el frente fiscal los importantes ahorros públicos reducen sustancialmente la carga relativa
de la deuda externa, que en 2003 ascendía a 235.000 millones de dólares (Gráfico 11). No
obstante, aquellas políticas fiscales expansivas causan a partir de septiembre de 2008 el deterioro de las cuentas públicas, resquebrajando los niveles de superávit fiscal primarios obtenidos en los primeros años de la presidencia Lula. Brasil utiliza como meta de sus cuentas
públicas el resultado fiscal primario que se obtiene por diferencia entre los ingresos y gastos
del Estado Brasileño (gobierno nacional, gobiernos regionales y municipales y empresas
estatales), sin contemplar el pago de intereses de la deuda pública. La importante magnitud
de estos últimos obliga a un resultado fiscal primario positivo a fin evitar el déficit fiscal
nominal. En 2009 y 2010 se logran superávit fiscales primarios de solo 2% y 2,8% del PIB
respectivamente (inferiores a las metas establecidas), pero déficit fiscales nominales de 3,4%
y 2,6%. Por su parte la deuda neta del sector público de 2010 alcanza los 830.000 millones
de dólares. He aquí un tema preocupante para la nueva administración.
Gráfico 11: Evolución de la deuda externa total (en relación al PIB).
Fuente: CEPAL
64
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
§ El fuerte crecimiento económico de los últimos años le ha permitido a Brasil posicionarse como la octava economía del mundo, superando en los últimos tiempos a España
seriamente afectada por la crisis internacional. En la actualidad el PIB nominal de Brasil
supera los 1,6 billones de dólares mientras que el español es de 1,5 billones, siendo mayor
la diferencia en términos de paridad del poder adquisitivo­­.
§ La creación de más de 12 millones de puestos de trabajo que redujeron la tasa de desempleo del 11,6% en 2003 a menos del 6% en 2010. Como correlato, más de 20 millones
de personas han logrado salir de la pobreza (la cual cae del 35,8% en 2003 al 21,4% en
2009), y otros 30 millones se incorporaron a la creciente nueva clase media brasileña,
considerada uno de los motores del consumo y de la economía. Este grupo social se estima estar actualmente conformado por aproximadamente 90 millones de brasileños que
poseen ingresos de entre 600 y 2.500 dólares mensuales.
§ La consultora internacional Goldman-Sachs agrupó a Brasil junto a Rusia, India y China
en el llamado BRICs, con la intención de identificarlas como economías de alto desempeño y motores de la economía mundial en las próximas décadas. Se prevé que los BRICs
serán responsables del 60% del crecimiento económico mundial entre 2008 y 2014. Además, en abril de 2008 la prestigiosa agencia de calificación crediticia Standard & Poor’s,
calificó a Brasil en situación de investment grade, permitiendo un mejor acceso al mercados de capitales, y una mayor valoración como mercado propicio para la radicación de
inversiones extranjeras. También Moody’s y Fitch elevaron las calificaciones de Brasil.
§ Brasil ha fortalecido su sistema político federal a partir del ejercicio democrático, no presenta problemáticas con países limítrofes, cuenta con una oferta exportable diversificada,
y políticas de Estado de aliento a los capitales extranjeros.
§ En el plano productivo sobresale:
1-el fuerte crecimiento de la producción agropecuaria (cereales, soja y carnes) que permite a Brasil posicionarse como uno de los principales productores y exportadores
mundiales en esos segmentos. Entre las importantes producciones se destacan: café,
soja, trigo, arroz, maíz, caña de azúcar, cacao, fruta cítrica y carne bovina. La producción agrícola de Brasil, que representa, aproximadamente, el 10% del PIB, alcanza en
2010 una cifra récord de 149,5 millones de toneladas de cereales, leguminosas y oleaginosas, un 11% por encima del año anterior. La producción de arroz de 2010 se estima
en 11,3 millones de toneladas; batata 3,5; café 2,8; frijoles 3,3; maíz 55; mandioca 25;
naranja 19; caña de azúcar 73; soja 68 y trigo 5,7 millones. Según los pronósticos del
IBGE, la cosecha de 2011 se estima en 145 millones de toneladas, un 2,5% inferior a la
de 2010 pero semejante a la buena campaña de 2008. Estos datos consolidan a Brasil
como uno de los principales graneros del mundo.
2-La enorme y diversificada producción manufacturera que representa aproximadamente
el 25% del PIB, cifra muy importante en relación a otras economías. Entre sus principales segmentos sobresale: el mineral de hierro, carbón, maquinarias, textiles, petróleo
y subproductos, cemento, productos químicos, fertilizantes, calzado, juguetes, electrónica, transformación de alimentos, equipo de transporte (automóviles, naves, y avión),
equipo de telecomunicaciones y bebidas.
3-La expansión de las multinacionales brasileñas (JBS, Odebrecht, Camargo Correa,
Sadia, Brasil Foods, Coteminas, Embraer, Gerdau, Magnesita Refratários, Marcopolo,
Natura, Petrobras, Votorantim, Weg, Vale, etc.), es otro de los íconos más destacados de
INVENIO 14 (26) 2011: 47-71
65
Diego N. Marcos - Gabriel D. Frontons
los últimos años. Un factor crucial fue el apoyo estatal brindado por el Banco Nacional
de Desarrollo Económico y Social (BNDES), manifestado en la oferta de financiamiento a largo plazo en condiciones muy competitivas15.
§ En materia energética la exploración (y posterior hallazgo) de grandes reservas de petróleo en el litoral atlántico por parte de la estatal Petrobras, y su capitalización de 70.000
millones de dólares en el mercado financiero internacional, convierten a Brasil en un importante jugador mundial en un producto de creciente significación. Las favorables repercusiones financieras de este hecho adquieren singular trascendencia para el futuro de la
nación.16 Al igual que en petróleo, en los últimos quince años las políticas energéticas de
aliento a la exploración ha permitido incrementar sustancialmente las reservas de gas.
Durante la era Lula la estabilidad económica heredada del gobierno de Cardoso fue
uno de los principales punto de controversia. La difícil situación del año 2002 -manifestada
por ejemplo en una tasa de riesgo país por encima de los 2.000 puntos básicos-, y los presagios negativos para 2003 -por ejemplo de una inflación del 40%-, desacreditan la creencia de
que Cardoso entregó un legado de estabilidad, inclusión y crecimiento. Bajo las presidencias
de Lula la tasa media de crecimiento económico se acerca al 5%, mientras que en los ocho
años anteriores fue de 2,3%. Los partidarios del Gobierno de Lula marcan distancia respecto
de su antecesor, y diferencian sus políticas de las implementadas durante la anterior administración, al menos en los siguientes puntos:
§ Las áreas sociales y de agricultura familiar son señaladas como de mayor prioridad por
el Gobierno de Lula. La universalización de la energía eléctrica, la situación de los hogares de muy bajos ingresos y el programa Fome Zero (Hambre Cero) son ejemplos de
verdaderas políticas sociales de inclusión. El Bolsa Familia -que unificó varios programas
vigentes durante la gestión anterior, entre ellos: Bolsa Escola, Bolsa Alimentação, Cartão
Alimentação y Auxilio Gas-, destinó en principio 72 reales a más de 6,5 millones de hogares, cifra muy superiores a las alcanzadas en el gobierno de Cardoso (24 reales para 2
millones de familias).17
§ En el área educativa los detractores de Cardoso señalan los mejores resultados alcanzados
durante el gobierno petista. El mayor acceso a la universidad estatal a través de un sistema de becas a alumnos de bajos ingresos, y las mayores partidas del Programa Nacional
de Alimentación Escolar (PNAE), que destina una merienda a 38 millones de niños en
etapa escolar (guarderías, preescolar, enseñanza básica y comunidades indígenas), son
señaladas como fuertes diferencias respecto de la gestión anterior.
§ Otra diferencia sustancial entre los gobiernos de Cardoso y Lula se refiere a la dispar concepción respecto al Estado Empresario. En la gestión de Lula el proceso de privatizaciones
fue suspendido, mientras que durante la presidencia de Cardoso se transfirieron al sector privado más de 100.000 millones de dólares de activos públicos. Lula potencia el rol del Estado
y configura un nuevo modelo de gestión política-administrativa. El nuevo Estado preserva
sus funciones, y trabaja además como elemento central en la coordinación y articulación de
políticas dirigidas a reducir los efectos indeseados de los fallos del mercado.
§ El ataque a la corrupción, la mayor participación ciudadana a través de las acciones desarrolladas por el Consejo de Desarrollo Económico y Social -creado en el Gobierno de
Lula-, y la posibilidad de establecer un mayor diálogo con todos los movimientos sociales
son otros contrastes.
§ La política exterior de Lula revaloriza la posición de los países en desarrollo, y pregona
66
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
una mayor equidad y menor pobreza a nivel global. La creación del G-20 es resultado
de ese proceso de mayor participación de las naciones menos desarrolladas en los temas
globales. Gracias a una política de ampliación y diversificación de mercados de destinos
de las exportaciones brasileñas, China se ha convertido recientemente en el primer socio
comercial de Brasil, desbancando a Estados Unidos.
En resumen, el gobierno de Lula aceleró el crecimiento económico, fortificó el valor
de las políticas sociales, y generó mayor confianza internacional sobre el futuro de la nación,
sembrando así las bases de un sólido modelo de desarrollo económico. El rápido crecimiento
derivó en un inédito proceso de inclusión social que permitió al ex presidente contar con
superlativos niveles de aceptación y popularidad.
IV - Perspectivas económicas y consideraciones finales
En el transcurso de las últimas dos décadas Brasil ha fortalecido su predisposición
para la atracción de capitales extranjeros. Sus grandes reservas energéticas, su creciente mercado interno, su desarrollada y competitiva estructura agropecuaria e industrial, el avance
de ciertos sectores claves (aeroespacial, medicina, energía, turismo), y su sólido sistema financiero, entre otros factores, auguran importantes inversiones, muchas de ellas foráneas. A
pesar del extenso atraso cambiario, para los próximos años se presagian fuertes ingresos de
capitales externos destinados a construir infraestructura económica y social (puertos, carreteras, ferrocarriles, servicios, etc.), y a financiar otras inversiones. El Programa de Aceleración del Crecimiento favorece ese desarrollo. La elección de Río de Janeiro como sede de
los próximos juegos olímpicos en 2016, sumado a la realización del próximo campeonato
mundial de futbol en 2014, genera expectativas favorables acerca del futuro desempeño económico, y una mayor confianza en los beneficios de la radicación de filiales de empresas
multinacionales.18 Estos factores han llevado a los gobiernos a realizar fuertes esfuerzos en
pos de la llegada de nuevas IEDs, que para 2010 se estima superaron los 30.000 millones de
dólares. Las actuales elevadas tasas de crecimiento de la economía de Brasil, proyectadas a
veinte años, vaticinan el posicionamiento de la nación entre las cinco más grandes del mundo.19 Se juzga creciente el rol de Brasil como actor de peso en las negociaciones multilaterales referentes a temas comerciales, financieros, energéticos e incluso políticos. También esto
despierta el interés del mundo empresarial que decide inversiones en su enorme geografía. La
Bolsa de San Pablo es actualmente una de las más dinámicas del mundo.
No obstante, existen en Brasil ciertas paradojas. En los últimos años se ha tomado
mayor conciencia de la importancia de la educación para el futuro de los niños. Actualmente,
y gracias a fuertes y masivos estímulos oficiales, el 98% de los niños asiste a un establecimiento educativo. Pese a los recientes grandes esfuerzos en construcción de universidades y
escuelas técnicas las carencias son aún cuantiosas. Una porción importante de la población
brasileña presenta debilidades en cuanto a nivel y calidad educativa. Más de 10 millones de
analfabetos, y una cifra cercana de personas con serias dificultades para escribir reflejan la
gravedad del problema. Otro aspecto problemático es la desigual distribución de la riqueza
e ingresos. La administración Lula encaró firmemente este problema impulsando amplias
reformas y programas de ayuda. Sin embargo, esta situación se percibe como no resuelta y
como una demora en el proceso de desarrollo económico, hecho lo cual vislumbra nuevas políticas de redistribución del ingreso. Los avances realizados se consideran positivos pero aún
insuficientes requiriendo nuevos programas y una reforma fiscal.20 Los gobiernos de Cardoso
INVENIO 14 (26) 2011: 47-71
67
Diego N. Marcos - Gabriel D. Frontons
y Lula implementaron importantes políticas sociales que permitieron a millones de personas
gozar de mejores estándares de vida. Asistencias en calidad de subsidios y una gran cantidad
de préstamos ventajosos alentaron el consumo de los más pobres. La aún alta desigualdad
distributiva -una de las más elevadas del mundo- aparece como uno de los temas de agenda
del reciente gobierno de Dilma Rousseff. El Estado brasileño asigna importantes recursos a
los más desprotegidos para facilitar su acceso a los alimentos básicos. No obstante, las carencias en el área educativa, la falta de oportunidades junto a los altos niveles de desigualdad,
propician problemas de inseguridad y de violencia, especialmente en las grandes urbes. Brasil cuenta actualmente con más de 20 millones de personas en situación de pobreza extrema.
Erradicar esa pobreza es un objetivo prioritario para la presidente Rousseff.
Los constantes planteos referentes a la apreciación del real, y la necesidad de reestablecer la competitividad de numerosos sectores fabriles representados por la Federación
Industrial Paulista de San Pablo y la Confederación Nacional de Industrias, presagian nuevas
directrices en materia cambiaria. Las deterioradas cuentas fiscales, los menores superávits
comerciales, y desde 2008 el déficit de cuenta corriente, exige mayor prudencia en el gasto
público, incrementar el saldo positivo de la balanza comercial y alentar el ingreso de capitales externos. Los pagos de intereses de la deuda externa sumado a los dividendos de
empresas extranjeras que operan en Brasil, vuelve estructuralmente deficitaria la balanza de
servicios, y exige amplios superávits en el balance comercial -a fin de no incurrir en déficit de
cuenta corriente- y/o un fuerte ingreso de capitales. Pero esto último se logra con altos tipos
de interés que fortalecen la moneda y desalientan la actividad. He aquí la encrucijada de la
economía de Brasil. En ese marco ingresa el debate acerca del control al ingreso de divisas,
las millonarias compras de dólares del Banco Central y la reforma tributaria.21 Los perjuicios
ocasionados por los déficit gemelos -interno y externo-, revalorizan la importancia de sostener los equilibrios macroeconómicos básicos. El actual boom de exportaciones de materias
primas y sus altos precios internacionales asociados a la recuperación de la demanda mundial, y asiática en particular, constituye una nueva oportunidad para Brasil, pero también un
desafío en materia de inflación, cuyo control es fundamental para el nuevo gobierno. La tasa
de inflación de 2010 del 5,9%, al superar la meta estipulada de 4,5%, anuncia una gran atención gubernamental en la dinámica de los precios y en el valor de la tasa de interés básica.
Dilma Rousseff, la primera mujer en alcanzar la presidencia de Brasil, junto a Palocci,
Mantega y Tombini, tienen la difícil tarea de restablecer los niveles de superávit fiscal primario, controlar la tasa de inflación y revertir la apreciación del real. Estos son algunos de los
importantes retos de la flamante gestión que inició su mandato el 1 de enero de 2011. La ex
mano derecha y jefe de gabinete de Lula propone la continuidad de muchas de las estrategias
recientemente desarrolladas, entre ellas, fortalecer aun más el rol del Estado e impulsar un
nuevo salto en materia de progreso económico. El programa oficial ‘Mia casa, Mia vida’ que
prevé edificar dos millones de casas populares en cuatro años, la construcción de la represa
Belo Monte, y el severo ajuste fiscal anunciado en febrero de 2011 son prueba de ello.
A pesar de aquellas paradojas, las perspectivas económicas de Brasil son alentadoras.
Según estos ojos argentinos la economía de Brasil “vai pra frente”.
Recibido: 10/12/10. Aceptado: 14/03/11
68
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
NOTAS
1 Que se extiende durante 32 meses hasta el arribo de la crisis mexicana en 1995.
2 Los flujos de capitales se originaban en inversiones extranjeras directas derivadas del proceso de
privatizaciones, y por la adquisición de empresas locales por parte de firmas multinacionales. También se produjeron ingresos en concepto de nuevo endeudamiento externo e inversiones financieras
en general.
3 El Banco Central fija y divulga un intervalo para la variación del índice de precios a fin de coordinar las expectativas inflacionarias y establecer un ancla para los precios
4 Lula da Silva tras tres derrotas consecutivas en elecciones presidenciales afrontó la difícil tarea de
suceder a Fernando Henrique Cardoso, un profesional de gran reconocimiento y pensador social de
larga trayectoria.
5 Solo 16.000 millones de dólares en 2002, unos 6.000 millones menos que el año anterior.
6 Si se consigue cortar a tiempo la espiral de altos tipos de interés, depreciación de la moneda, incremento de la deuda, aumento del riesgo país, la depreciación podría llevar a una mejora del saldo de
la balanza comercial vía mayores exportaciones y menores importaciones, y reducir la vulnerabilidad
externa. Pero la carrera de los tipos de interés corriendo detrás de los tipos de cambio -que en su depreciación desestabilizan los precios-, impide alcanzar el efecto positivo de la depreciación sobre el
comercio exterior. En estas circunstancias, la economía cae en un círculo vicioso en el cual la inflación
carcome el efecto de la depreciación, y la inestabilidad y la incertidumbre se instalan en la economía
con los consiguientes efectos recesivos. La existencia de muchos precios internos atados a la tasa de
cambio genera inflación, siendo insuficiente la política monetaria de metas de inflación.
7 El camino inverso, es decir aplicar políticas fiscales expansivas, requiere mayor nivel de financiamiento y alzas en los tipos de interés (para atraer fondos) que generan más deuda pública y niveles
de riesgo. Así se alentaría la expansión económica presente pero a costa de la inestabilidad cambiaria y de precios en un contexto de mayor dependencia del endeudamiento.
8 Las modificaciones fiscales y previsionales de fines de año contribuyeron a mejorar la percepción
de los mercados financieros internacionales, permitiendo una mejora en el acceso al financiamiento
externo, y un retroceso de los niveles de riesgo país a menos de 500 puntos básicos.
9 El economista italo-brasileño Guido Mantega, Ministro de Hacienda desde marzo de 2006, y referente del Partido de los Trabajadores, es considerado uno de los principales mentores del reciente
éxito de la economía brasileña.
10 Brasil aplica una interesante regla para la actualización de los salarios mínimos al contemplar el
crecimiento económico de los últimos dos años y la tasa de inflación.
11 En 2008 la inversión resultó ser el componente de la demanda agregada de mayor alza (13,8%), seguido por el gasto público (5,6%), y el consumo privado (5,4%). Los sectores de mayor dinamismo
fueron: el financiero (9,1%), los servicios de información (8,9%) y la construcción (8,0%). La tasa
de desempleo promedio mensual cae del 9,2% al 7,9%.
12 Entre otras señales de la crisis se menciona, por ejemplo, el incremento en los ratios de morosidad
que treparon de 3% en 2008 a 4,5% a fines de 2009. No obstante, los mismos se consideran relativamente bajos y menores a los padecidos en anteriores episodios de crisis. Los préstamos externos
sí sufren un fuerte retroceso.
13 Cuenta con la entidad bancaria privada más importante de Latinoamérica (Itaú-Unibanco), y con
el gigante estatal Banco do Brasil, el mayor de la región según total de activos. Bradesco y Caixa
Económica Federal secundan la lista de entidades privadas y públicas más grandes.
14 Por consideraciones estratégicas el sector de la construcción mantiene algunos estímulos fiscales.
15 La entidad incrementó el monto de sus préstamos de 35.000 millones de reales en 2003 a 137.000
millones en 2009. Los sectores de infraestructura e industrial recibieron más del 70% del total créditos otorgados.
16 Existe un fuerte debate parlamentario asociado a la regulación de la explotación de las nuevas
reservas petrolíferas y la distribución regional de las regalías. También es intención del gobierno
INVENIO 14 (26) 2011: 47-71
69
Diego N. Marcos - Gabriel D. Frontons
conformar un millonario fondo estatal destinado a financiar programas sociales, educativos, productivos, y de apoyo al desarrollo del sistema científico-tecnológico.
17 Los partidarios de Cardoso recuerdan que el origen de estas políticas se remontan a su gobierno, sin
embargo, Lula las expandió ampliamente. El programa ‘Bolsa Familia’ es considerado por el propio
Banco Mundial como uno de los programas de protección social más efectivos del mundo, tanto
por ayudar a 20 millones de personas a salir de la pobreza entre 2003 y 2009, como por reducir las
desigualdades de ingresos. No obstante, la pobreza es aún un problema acuciante.
18 Ambas designaciones ponen de manifiesto la confianza internacional en Brasil, sus capacidades y
potencialidades.
19 El escaso ritmo de expansión de las economías europeas sustenta tales proyecciones.
20 La población de Brasil soporta una importante carga fiscal en general pero desbalanceada. Los impuestos indirectos, incluso a los alimentos, alcanzan una incidencia muy importante en los grupos de menores recursos.
http://funcex.com.br/
21 Hasta 2007 Brasil aplicó un impuesto del 0,38% a las transacciones financieras.
BIBLIOGRAFÍA
Arahuetes García, Alfredo “La economía de Brasil en el primer año de Lula: la búsqueda de la estabilidad y la
lucha contra los desafíos de la inserción internacional”. Real Instituto Elcano, 2004.
Bichara, Julimar da Silva “La economía brasileña durante el gobierno de Lula da Silva” Revista ICE Brasil. 2003,
Nº 810.
Bresser-Pereira, Luiz C. “El nuevo desarrollismo y la ortodoxia convencional” Revista Sao Paulo em perspectiva
2006 review.
Centro de Economía Internacional “Revista del CEI. Comercio e Integración” Abril de 2010 - Nº 17. Argentina.
http://www.iigg.fsoc.uba.ar/sepure/Docencia/titrad/Bresser%20Pereira_The%20new%20developmentalism.pdf
Comisión Económica para América Latina y el Caribe (2010) “Balance preliminar de las economías de América
Latina y el Caribe”.
Corrêa, Daniela y Tadeu Lima, Gilberto “Internacionalização produtiva de empresas brasileiras: caracteri­zação
geral e indicadores” Informações fipe. 2007.
Cunha, Andrea y Bichara, Julimar da Silva “La economía del gobierno de Lula: cambio o continuidad” 2002,
http://www.ucm.es/info/ec/jec9/pdf/A07%20-%20Moreira%20Cunha,%20Andr%E9%20y%20Silva%20Bichara,%20Julimar.pdf
Ferraz, Joao C., Pires de Souza, Francisco E. y Kupfer, David. “Trayectorias para el desarrollo brasileño”. Boletín
informativo Techint 333. 2010, Argentina.
Frontons, Gabriel y Bellina, Jorge “Inversiones bilaterales y complementariedad comercial. El caso ArgentinaBrasil”. Revista Invenio, 2010, N° 25. Año 13. Argentina.
Instituto de Pesquisa Econômica Aplicada “Brasil em desenvolvimento. Estado, planejamento e políticas públicas. Série Brasil: o estado de uma nação”. 2009, Volume 2, Brasília.
Kupfer, David; Ferraz, Francisco E. y Carvalho, Laura. “50 años en 50. El largo y sinuoso camino del desarrollo
industrial de Brasil”. Boletín informativo Techint 330. 2009, Argentina.
Malan, Pedro. “El desafío de la globalización en el nuevo contexto global: Brasil”. Boletín Techint 318. 2005.
Argentina.
Ministerio de Relaciones Exteriores “Como exportar a Brasil” Presentación en
http://www.braziltradenet.gov.br/Archivos/Publicacoes/Manuais/PubcexBrasilE.pdf
Ministerio de Relaciones Exteriores (2009) “Panorama de la economía brasileña” Presentación Embajada de
Brasil, Argentina.
Rodrígues de Paula, Luiz F. (2003) “Una alternativa en materia de política económica para Brasil post Fernando
E. Cardoso”, Dialogo Político, N° 2, Julio 2003.
http://www.ie.ufrj.br/moeda/pdfs/una_alternativa_en_materia_de_politica_e%20conomica.pdf
Sáinz, Pedro y Calcagno, Alfredo. “La economía brasileña ante el Plan Real y su crisis”. CEPAL, temas de Coyuntura, serie 4, 1999.
Sáinz, Pedro y Calcagno, Alfredo. “En busca de otra modalidad de desarrollo”, Revista de la CEPAL Nº 48, Santiago de Chile, 1992.
70
INVENIO 14 (26) 2011: 47-71
Una mirada argentina a la economía brasileña
FUENTES DE INFORMACIÓN
- Asociación Latinoamericana de Integración.
- Banco Central do Brasil.
- Banco Interamericano de Desarrollo.
- Banco Nacional de Desarrollo Económico y Social
- Centro de Estudios Internacionales - Ministerio de Relaciones Exteriores. Argentina.
- Comisión Económica para América Latina y el Caribe.
- Confederación Nacional de la Industria.
- Diario El Cronista - Argentina.
- Diario El País - España.
- Federación de Industrias de San Pablo.
- Fundación Getúlio Vargas.
- Instituto Brasileño de Estadística y Geografía.
- Ministerio de Desenvolvimiento, Industria y Comercio Exterior.
- Ministerio de Fazenda.
- Ministerio de Trabajo y Empleo.
INVENIO 14 (26) 2011: 47-71
71
72
Tema de actualidad
LA “BATALLA DE LAS MONEDAS”
Y EL PRECIO DE LOS ALIMENTOS
Rodolfo C. Rossi*1
Introducción
La importancia del dólar americano como moneda prominente internacional no estaría,
por ahora, en cuestionamiento, pero la introducción de una enorme cantidad de dinero por
parte de la FED - entidad encargada de la política monetaria de EE.UU. - para estimular el
consumo, a través de una técnica conocida como Quantitative Easing (QE), que consiste en
utilizar dólares recién creados para comprar títulos de largo plazo de deuda pública estadounidense, estaría generando serias reacciones en el mundo.
Los nuevos dólares en el mercado contribuyen a devaluar la moneda estadounidense
frente al resto de las monedas internacionales, lo que favorece a sus propias exportaciones y
estimula el crecimiento de la actividad económica. Estados Unidos estaría llevando, consecuentemente, una auténtica devaluación competitiva, o sea una disminución programada de
la cotización de su moneda, para favorecer la venta de sus productos en el exterior.
Racionalmente, con la expansión monetaria anteriormente referida, EE.UU. debería
estar sufriendo el “impuesto inflacionario”. Ello no está ocurriendo. Tampoco, ha de ocurrir
en el corto-mediano plazo. EE.UU. solo tendrá inflación cuando reduzca su nivel de desempleo y el nivel de inversión no sea suficientemente elevado para satisfacer la fuerte demanda
de bienes y servicios. ¿Cómo puede ser eso? Veamos.
El privilegio de ser el único dueño de la fábrica de la “moneda patrón”
EE.UU. tiene el privilegio de tener una moneda prominente (US$) heredera del patrón
oro. El financiamiento del desequilibrio financiero (fiscal y externo) que presenta EE.UU.,
generalmente es realizado por todos los países del mundo, que comprando US$ “aumentan
su encaje deseado”. En efecto, EE.UU. consume, invierte, importa siempre sobre sus niveles
de ingreso. Atento el importante déficit de Cuenta Corriente del Balance de Pagos (desahorro externo) que mantiene EE.UU. desde hace muchos años, el sistema financiero transfiere
actividad y crecimiento a los demás países del mundo que presentan como contrapartida,
superávit de Cuenta Corriente en sus Balances de Pagos. Cuando el desequilibrio externo
de EE.UU. se excede en más del 3,50 % del PIB de ese país, en el año -que es la “monetarización del crecimiento promedio mundial”-, EE.UU. transfiere inflación al mundo, por la
abundancia de dólares.
Por tal hecho, rigurosamente, los países del mundo se ven en la necesidad de comprar
* Rodolfo C. Rossi es doctor en Ciencias Económicas. Ha sido Presidente del Banco Central de la
República Argentina. Invenio agradece esta nota enviada en febrero de 2011.
INVENIO 14 (26) 2011: 73-77
73
Rodolfo C. Rossi
dólares americanos para evitar la revalorización de sus monedas y, con ello, se beneficia
EEUU, que adicionalmente “licua” su endeudamiento. China, actualmente, Japón, países de
Europa, con anterioridad, son ejemplos del “entrampamiento” en el financiamiento fiscal que
realiza EE.UU. desde 1946, fecha del Acuerdo de Bretton Woods, cuando el dólar estadounidense reemplazó técnicamente al patrón cambio oro.
Desde entonces, y con mayor determinación desde agosto de 1971 –cuando el US$ se
hizo inconvertible al oro –, la política monetaria de EE.UU. contribuyó a la inflación en el
mundo, por su efecto directo sobre los precios y sobre la oferta monetaria. La política fiscal
y monetaria que hace necesaria la desvalorización del dólar, también coadyuva a la inflación
en el extranjero al proporcionar mayores incentivos a los flujos de capital especulativo que
abandonan el dólar.
La abundancia de dólares en el mundo y el mejoramiento de los términos de intercambio de los países productores de materias primas
Pero la abundancia de dólares tiene, también, otras consecuencias importantes.
Constituye un factor coadyuvante del aumento del precio de las materias primas, cuya
oferta, generalmente, es más inelástica que la fabricación de “moneda papel”. Los países
productoras de materias primas se ven francamente beneficiados, ya que si bien sufren del
aumento en el precio de sus producciones, el nivel de exportaciones en US$ de las mismas,
aumenta y estimula su ingreso y beneficio.
No ocurre lo mismo con otros productos -generalmente industriales- no exportables.
Revalorizadas las monedas locales frente al dólar estadounidense, sus producciones sufren
la incompetencia, en su referencia a las producciones de EE.UU. y también de China, país
que mantiene, prácticamente la relación cambiaria fija de su moneda, el yuan, con el dólar
estadounidense. Al respecto, no obstante la importantísima capitalización de China y su continuada reducción de costos por eficiencia, en los últimos años, la revaloración del yuan, en
su relación al dólar estadounidense, fue de solo el 3,30 %, con lo que la producción industrial
del país asiático se hizo sumamente competitiva en el mundo.
Consecuente con ello, el sector industrial de los países que revalúan su moneda -para
no comprar dólares y mantener una sana flotación cambiaria de sus monedas- sufren fuertemente en un vasto sector demandante de mano de obra, quedando generalmente fuera del
mercado internacional y también doméstico.
La Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO),
en su más reciente análisis sobre las perspectivas de los alimentos básicos para el año 2011,
presagia una volatilidad extrema de los precios de los mercados agrícolas, sobre todo de los
cereales, con amenazas, incluso, a la seguridad alimentaria global. Al respecto, arroz, trigo,
azúcar, cebada, y carne, entre otros productos básicos, continuarían con los precios altos e
incluso con significativos aumentos.
Una mayor hambruna por carestía de los precios para los países del Tercer Mundo, será
uno de los efectos visibles de la “abundancia de US$” a las puertas del planeta, la que también impactará en los bolsillos de familias y trabajadores del primer mundo y de los países
emergentes.
Por otra parte, sequías, inundaciones e incendios son algunos de los fenómenos que
han afectado a las actuales cosechas y las respectivas reservas estratégicas de cereales, en
importantes países productores como Rusia, Ucrania, Australia y también Argentina.
74
INVENIO 14 (26) 2011: 73-77
La “batalla de las monedas” y el precio de los alimentos
A la “floja” campaña de los cereales se le han sumado grandes movimientos financieros especulativos, que acentúan la presión y volatilidad de los principales mercados.
Otros análisis aducen que la actual firmeza de los precios también refleja el crecimiento
de la demanda por una mejor perspectiva económica en países emergentes, sobre todo en
China e India, donde se concentra casi un tercio de los habitantes del planeta.
Todo ello se adiciona a las distorsiones monetarias comentadas en los tipos de cambio,
provocada por la “debilidad del US$” y la evolución del euro y del yuan.
Las quejas y las acciones de los países que adoptan medidas para prevenir la apreciación de sus divisas frente al US$
¿Qué pasa con aquellos países que no devalúan sus monedas al compás de la desvalorización del US$?
Es de señalar que el país que no devalúa su moneda, técnicamente sufre un estancamiento o caída del nivel de sus exportaciones y un aumento de sus importaciones. Su tasa de
interés se eleva y con su moneda revalorizada en dólares, es objeto de ingreso de capitales
del exterior por el arbitraje consiguiente (tasa positiva en US$ y revalorización de la moneda)
La desvalorización del US$ “invita a una respuesta de los competidores”. Y en virtud
de ello, hay una migración creciente de los sistemas de libre flotación (la desvalorización del
US$, se correspondería con una revalorización de la moneda doméstica) a otros sistemas,
para defender la producción y el trabajo local.
Frente a la depreciación del dólar estadounidense, un buen número de países está aplicando medidas intervencionistas y proteccionistas, que incluso son ajenas a sus políticas
generales macroeconómicas.
Brasil, Israel, Chile, Colombia, Corea podrían ser ejemplos de tales políticas para frenar la apreciación de sus monedas.
Brasil, invadido por el flujo de capitales de corto plazo y fortalecido el real en un
37 %, en los dos últimos años, está en la aplicación de controles de capital, cambios en la
regulación financiera e incrementando la acumulación de reservas internacionales. Incluso,
recientemente, anunció un impuesto del 60 % sobre las posiciones “cortas” de los bancos en
dólares. Sin embargo, la presión inflacionaria por la mayor oferta monetaria y alto nivel de
crecimiento económico, determinó que recientemente, su BC elevara su tasa de referencia
SELIC (a 1 año) al 11,25 %. Queda el interrogante sobre si tal aumento será efectivo frente a
la creciente inflación o será un factor adicional de atracción de capitales especulativos.
Israel fue el primer país en subir la tasa de interés en el 2009, y su Banco Central compró permanentemente dólares en el mercado cambiario, para impedir una sobre apreciación
del shekel, estrategia que le resultó muy onerosa. Actualmente, considera establecer controles a la entrada de capitales.
El Banco Central de Chile gastará US$ 12.000 millones, para tratar de debilitar la cotización de la moneda nacional, que se ha situado en sus niveles más altos frente al dólar, en
los últimos tres años.
El hecho de que el efecto “dominó” haya llegado a la economía andina -quizá la más
ajustada al libre mercado de las emergentes-, hace aumentar la inquietud por un problema
para el que hoy por hoy, nadie parece tener o proponer una solución satisfactoria.
INVENIO 14 (26) 2011: 73-77
75
Rodolfo C. Rossi
La zona del euro y los tipos de interés
Pero hay más. Los últimos datos de la inflación de la zona del euro, serían preocupantes. El presidente del BCE manifestó, tras la última reunión de la autoridad monetaria, que se
hará todo lo que sea necesario para evitar la escalada de la inflación.
Y si el BCE sube los tipos de interés antes que la FED (Reserva Federal) ello implicará
más firmeza para el euro, con buena recuperación en este año y por contrapartida, un “aflojamiento del US$”.
Pero, mientras tanto, y como paradigma de la contradicción, los “no intervencionistas”
europeos, reclaman por precios máximos para los productos alimenticios, en un ambiente de
desconcierto.
China, la diversificación de sus inversiones y la probable convertibilidad del yuan
Por otro lado, China disminuye la adquisición de bonos estadounidenses. A medida que
la crisis ingresa a una segunda fase de endeudamiento soberano, ese país orienta en forma
muy segura, sus adquisiciones en la minería, petróleo y acumulación de oro. Sus inversiones están dirigidas actualmente, con mayor fuerza hacia Europa (compra de bonos de Grecia, Portugal, España y otros países) y también África (cuenca del Río Congo) y el sudeste
asiático. Por supuesto, esto conlleva a la disminución relativa de sus inversiones en bonos
estadounidenses.
Pero el foco de atención de EE.UU. con su moneda US$, prominente y en dispendio,
debería ser la reciente decisión de China de permitir que el yuan – cuyo valor es estrictamente
controlado por el gobierno –, se convierta en una moneda internacional que pueda utilizarse
en el comercio y en las inversiones.
Al respecto, China, segunda mayor economía nacional del mundo, reconoce que como
potencia comercial global, debería tener una moneda global. Llegado el momento, un yuan
internacional podría surgir como un depositario de valor similar al dólar, el euro o el yen.
No cabe duda que la internacionalización del yuan será una tarea mayúscula y larga en
el tiempo, ya que su negociación actual empalidece frente a la convertibilidad de otras monedas, cuyos países o zonas tienen sistemas de conducción política aprobados y conocidos (no
obstante algunos deslices existentes). Y, por otra parte, EE.UU. en lo económico, no solo es
su extraordinaria vigencia territorial, sino su fortaleza “off-shore”, a través del poderío de sus
empresas que producen, comercializan y acumulan en US$, moneda patrón.
Todos estos antecedentes hacen suponer que este año y, probablemente el siguiente,
estará signado por la continuidad de la “debilidad del dólar” y por las correctas aseveraciones
de la FAO, en su referencia a la firmeza de los productos básicos, fundamentalmente alimenticios.
De todas maneras, EE.UU., en algún momento, deberá disminuir su desequilibrio fiscal
y externo excesivo y, en un futuro mediato, aumentará su tasa de interés de referencia, para
realmente convalidar la vigencia de su moneda “patrón”, incuestionablemente.
Argentina y el año 2011
En cuanto a nuestro país, del análisis del reciente Plan Monetario del Banco Central,
aún no presentado al Congreso, se desprendería que el nivel inflacionario real superaría al
registrado en el año 2010 (estimación privada: 26,50 %), con un aceptable buen crecimiento
76
INVENIO 14 (26) 2011: 73-77
La “batalla de las monedas” y el precio de los alimentos
(estimación 6,1 %), fruto de un positivo saldo de comercio exterior, elevado nivel de consumo interno y necesaria alta inversión.
La elevada inflación será consecuencia del pago de los vencimientos externos (US$
7.504 millones) con reservas del Banco Central de la República Argentina, que se repondrán
durante el corriente año, por compras de divisas que realizará la Institución con emisión
monetaria.
Está bien el cumplir con los pagos que hay que realizar. Mejor hubiera sido que los
mismos se realizaran con fondos del superávit fiscal, que lamentablemente, no se obtendrá.
Mientras tanto seguiremos “aprovechando” la debilidad del dólar estadounidense y la
revalorización del real brasileño, aunque con una mayor distorsión de precios relativos, por
la inevitable “inflación interna en US$”, que deberemos soportar.
INVENIO 14 (26) 2011: 73-77
77
78
Innovación empresaria en Argentina
Difusión de TICs en las PyMEs
-Segunda parteJuan Carlos Scarabino - Mariana Belén Colonnello*1
RESUMEN: La idea generadora del presente artículo es continuar con el análisis de la realidad
del mercado actual, donde las empresas enfrentan desafíos cada vez más difíciles y su éxito
muchas veces depende de su visión y empuje para innovar y obtener ventajas que ofrecen las
nuevas tecnologías. En la mayor parte de los casos, no se sabe la manera correcta de acceder
a ellas para obtener beneficios. Se concluye que los proveedores de TICs conocen las posibilidades de aportar a la creación de ventajas aplicando las mismas, alineadas a la estrategia de las
empresas clientes, pero esto no es utilizado como argumento de venta a la hora de comunicar.
Solamente las TICs son tomadas como una adaptación al mercado que les permite sobrevivir.
Palabras clave: innovación empresaria - PyMEs - TICs.
ABSTRACT: Business innovation in Argentina. ICT introduction in SMBs - Part two
The present paper aims at continuing the analysis of current market reality, where businesses have to face increasingly difficult challenges; consequently, their success depends
on their vision and thrive to innovate and derive advantages from new technologies. Unfortunately, most businesses are not aware of the correct way to access such technologies
to obtain benefits. The paper concludes that ICTs providers, although familiar with the
possibilities of ICT as advantage generators in line with client business strategies, do not
use ICT potential as a sales argument. ICTs are regarded merely as a necessary adaptation
to the market to enable business to survive.
Key words: business innovation - SMBs - ICTs
Introducción
La presente parte de la investigación hace hincapié en la oferta de TICs en Rosario y
al grado de acceso que poseen las empresas a este tipo de tecnología. Con basamento en los
supuestos metodológicos tomados como punto de partida, se centra en el método a utilizar,
* Juan Carlos Scarabino es Doctor de la UNR. Contador Público (UNR), Analista de Sistemas (UTN) y Especialista en Costos y gestión empresarial de IAPUCO, entidad de la cual es miembro de su Comisión de posgrado.
Es investigador categorizado. Ha recibido siete premios de nivel nacional. En el año 2003 se hizo acreedor de
un Diploma de Reconocimiento de la Honorable Cámara de Diputados de la Nación como premio a su labor
científica. Profesor de UCEL. Es autor del libro “Enfoque Lógico en Sistemas“, que ya lleva su segunda edición.
Ha efectuado diversas publicaciones en portales virtuales internacionales. Actual Doctorando en Contabilidad.
E-mail: jscarabi@fcecon.unr.edu.ar.
Mariana Belén Colonnello es Licenciada en Administración de Empresas egresada de la UNR. Recientemente
ha finalizado el cursado de la Especialización en Comercialización en la misma Institución. Se desempeña como
Consultora en Gestión Organizacional y Comercial. E-mail: mbcolonnello@hotmail.com
Han colaborado activamente los alumnos avanzados de la carrera de Contador Público de UCEL: Anabel Blando
y Mauro Forlín.
INVENIO 14 (26) 2011: 79-90
79
Juan Carlos Scarabino - María Belén Colonello
que es de fundamental importancia para lograr el objetivo propuesto, considerando que no es
conveniente limitarse solamente, si bien es valioso, a lo instrumental.
Es menester recalcar, por lo tanto, la construcción metodológica, que ofrece distintos
caminos, entre los cuales se encuentra el método cuantitativo, también llamado lógica hipotético-deductiva, y el cualitativo, también conocido como lógica inductiva-interpretativa. De obrar
de manera convencional, la construcción del objeto de conocimiento se haría mediante lógicas
inmutables en cuanto al razonamiento de los fenómenos que se dan en la realidad, que no corresponderían a la manera en que el fenómeno se construye y se va dando en la propia realidad
del objeto y del sujeto que lo piensa. Es que la esquiva realidad se compone, tanto de los fenómenos que se dan en ella, como de los sujetos que la toman y le dan significación y sentido a
la misma y a sí mismos. Esto lleva a pensar que si se pretende investigar en ciencias sociales, se
deben dejar de lado los parámetros que pueden orientar hacia una lectura estática de la realidad.
Al respecto, resultan útiles las conclusiones del profesor Paul E. Landes de la Universidad de Harvard que destacó que “no hay tecnologías neutras en la historia de la humanidad que generen resultados automáticos y asegurados. Las grandes revoluciones tecnológicas
abren oportunidades y nuevos ciclos que las sociedades deben reconocer y aprovechar, pero
depende de ellas que utilicen creativamente estos paradigmas emergentes en la construcción
de su futuro. Las innovaciones sociales o la reorganización social que las nuevas tecnologías
generan son tan importantes o más importantes que los propios cambios tecnológicos”1.
En el presente informe, se exponen las primeras conclusiones de un trabajo de tipo
exploratorio, sobre la realidad de las PyMEs argentinas situadas en Rosario, respecto al estado en que se encuentra el proceso de innovación empresaria y al tipo de avance con el que
se cuenta en lo que respecta a la implementación de TICs. Este primer abordaje se enfoca
en el grado de acceso a este tipo de tecnología de las empresas estudiadas, con encuestas a
proveedores de las mismas. En una segunda etapa, se intentará establecer si existe, por parte
de las PyMEs a encuestar, una búsqueda concreta de ventajas comparativas por medio de la
incorporación de tecnología y su alineación a las estrategias del negocio.
Trabajo de campo: Modelo de Cuestionario
A fin de ahondar en la propuesta se ha elaborado una encuesta, cuyos resultados
serán completados y sistematizados oportunamente.
Nunca sabremos lo que perdemos ignorando...
OFERTA DE TICs Y SERVICIOS
RELACIONADOS EN ROSARIO
En el marco de una investigación desarrollada por profesionales y alumnos de la UCEL,
cuyo objetivo principal es analizar si las Tecnologías de Información y Comunicación constituyen una de las causas para que las PyMEs argentinas ubicadas en Rosario creen ventajas
competitivas, se ha diseñado el presente cuestionario, a fin de poder conocer el grado de
accesibilidad a estas herramientas, que poseen las PyMEs. Por ello, se considera importante
estudiar la oferta de TICs en Rosario.
80
INVENIO 14 (26) 2011: 79-90
Innovación empresaria en Argentina. Difusión de TICs en las PyMEs
Esta guía de preguntas pretende analizar los productos, servicios y modo de abordaje
comercial de su empresa y así aportar a la investigación introducida en el párrafo anterior.
Para ello, se le mostrarán una serie de preguntas relativas a:
l qué TIC y/o servicios relacionados comercializa su empresa
l como está articulada la oferta en su negocio
La consulta se presenta con algunas preguntas abiertas y una serie de afirmaciones,
donde usted debe señalar aquellas que sí se dan en su empresa. Además se brinda la opción
de agregar alguna alternativa que no esté contemplada en el listado.
El tiempo que demandará completar el cuestionario será de aproximadamente 10
minutos.
1 - CONOCIENDO A LA EMPRESA
DATOS GENERALES
Nombre de la empresa (opcional):
Año de fundación:
Ubicación:
Rubro/Industria:
Dotación de personal fijo:
Puesto de la persona que completará el cuestionario:
ENFOQUE ESTRATÉGICO DE LA EMPRESA
Señale con la palabra “SI” el enfoque que más se ajusta a las prioridades de su empresa.
Reducir costes
• Reducir el nivel de costes de producto actual, para brindar un menor precio al cliente.
Diferenciarse
• Desarrollar nuevas tecnologías de proceso.
• Entender mejor las necesidades de cliente.
• Desarrollar nuevos productos/servicios.
• Brindar un mejor servicio.
Enfocarse en determinado mercado
• Especializarse en un segmento de clientes específico.
INVENIO 14 (26) 2011: 79-90
81
Juan Carlos Scarabino - María Belén Colonello
2 - LA EMPRESA Y SU OFERTA COMERCIAL
A)
B)
C)
D)
¿Qué tipo de producto/servicio principal comercializa su empresa?
¿Quiénes son sus clientes?
¿Por qué lo eligen sus clientes? Qué necesidades les están satisfaciendo?
¿Considera que su empresa posee alguna característica que la distingue de sus competidores?
SI/NO. ¿Cuál?
E) ¿Qué bienes, competencias, capacidades o habilidades considera que lo han llevado a crear
esa ventaja sobre sus competidores?
F) ¿Considera que empresas clientes son conscientes de que pueden crearse ventajas competitivas a partir de la implementación de TICs alineadas estratégica mente con su negocio?
G) ¿Quiénes de los miembros de las empresas clientes son los que se contactan para la compra
de su producto o servicio?
H) ¿De qué manera promocionan o comunican su producto/servicio al mercado objetivo? ¿Existe
alguna estrategia en particular?
I) ¿Algunas PyMEs consideran que la implementación de determinadas TIC, ha abierto el panorama para implementación de otras ¿Cree que esto se debe a la necesidad de internalizar una
tecnología para darse lugar a conocer y adquirir otras? Han utilizado una estrategia de ofrecer
un producto y luego de que sea adquirido e internalizado ofrecer otro?
J) ¿Considera que la oferta Rosarina de TICs y servicios relacionados es lo suficientemente
variada y con buena calidad percibida por el cliente en comparación con la oferta que puede
encontrase en CABA?
K) ¿Qué rubros o necesidades considera mal atendidos o no atendidos?
L) ¿Qué nivel de difusión e implementación de TICs cree que posee las PyMEs Rosarinas?
ALTO MEDIO BAJO
M) ¿Considera que alguna de estas causas han retrasado o impedido la implementación de TIC o
servicios relacionados en las PyMEs Rosarinas? (indique “SI” todas las causas que considera
se ajustan a la pregunta antedicha)
o
o
o
o
o
o
o
o
o
Costos de adquisición, desarrollo y/o mantenimiento son altos
Los Bienes y/o servicios vendidos no se prestan para ser comercializados on-line
Los proveedores no están preparados para su uso
Los clientes no están preparados para su uso
Falta de personal capacitado para desarrollarlas, mantenerlas o utilizarlas
Los beneficios no están claros
Resistencias al cambio tecnológico por parte del personal de la empresa
Prefiere mantener el modelo de negocio actual
Ha realizado demasiadas inversiones en otros rubros
N) ¿Cuál es la visión respecto al futuro de su empresa? ¿Tiene pensado que se atenderá otros
clientes, nuevas necesidades de los clientes actuales, etc.)?
O) ¿Desea agregar algo más?
Fecha: ……………………
_____________________
Firma del encuestado
Se le agradece haber brindado parte de su tiempo y participado en la presente encuesta
82
INVENIO 14 (26) 2011: 79-90
Innovación empresaria en Argentina. Difusión de TICs en las PyMEs
Resultados del trabajo
Perfil de empresas relevadas
w Tamaño: PyMEs
w Ubicación: Rosario (unas pocas con sucursales en otra ciudades y países)
w Antigüedad: De las 9 empresas:
ü 1 tiene casi 60 años de antigüedad
ü 3 entre 20 y 30 años
ü 4 entre 10 y 15
ü 1 no se posee este dato
w Actividades: las empresas relevadas, pertenecen a la Industria TIC,
pero dentro de esta los rubros específicos de las mismas son:
ü Comercialización de Productos de Informática/Computación
ü Comercialización de Productos de Electrónica/Tecnología
ü Asesoramiento en informática y tecnología
ü Desarrollo y comercialización de software
ü Comercialización sistemas de seguridad
ü O combinación de ellos
Perfil de los encuestados
ü En 5 empresas la encuesta se realizó directamente al dueño/socio gerente
ü En un caso al gerente de tecnología
ü En otro al gerente comercial
ü Y en otros 2 a empleados administrativos
Aspectos comerciales y estratégicos
w Enfoque estratégico
ü2 empresas alegaron perseguir el fin de “reducir costes”
ü5 manifestaron que buscan “diferenciarse”
ü2 se enfocan en “un mercado específico”
w Productos/servicios comercializados:
üSoftware de gestión
üSoluciones de negocios para Administración de la relación con los clientes (CRM)
üProductos de informática
üProductos de electrónica
üSistemas de seguridad
üServicio técnico
üAsesoramiento
w Clientes:
Se observa una cierta dificultad, en la mayoría, a la hora de definir detalladamente el
target de clientes.
En la mayoría de los casos se identifica si se vende a empresas o clientes hogareños
o a ambos.
Sólo en dos casos se identifica el tamaño de empresa al que se dirigen, y en un solo
caso, al rubro o actividad de las mismas.
INVENIO 14 (26) 2011: 79-90
83
Juan Carlos Scarabino - María Belén Colonello
De los 9 encuestados, 7 atienden tanto empresas como clientes hogareños y 2 sólo a
empresas.
w Percepción respecto al motivo por el cual son elegidos por sus clientes/necesidades que satisface:
La mayoría en este punto hizo una larga descripción de diferentes aspectos brindados
al mercado que creen son valorados por el cliente.
En dos casos, se menciona el hecho de crear relaciones duraderas con el cliente y
sólo en uno la búsqueda de satisfacción de los mismos.
No se manifiesta, de manera espontánea, como motivo de elección, la contribución
de productos y servicios que ayuden a la creación de ventajas competitivas a sus clientes.
A continuación se resumen los aspectos mencionados por cada empresa:
´
w Características distintivas
Sólo 2 de las empresas manifestaron no poseer características que las distingan de
sus competidores. Las demás enunciaron varios aspectos que pueden resumirse así:
84
INVENIO 14 (26) 2011: 79-90
Innovación empresaria en Argentina. Difusión de TICs en las PyMEs
Pueden destacarse valores como la confianza y responsabilidad, así como también la
atención al cliente
w Competencias, capacidades o habilidades que se considera han llevado a la empresa a crear esa ventaja sobre sus competidores
Las empresas atribuyeron la ventaja a varios factores, que pueden agruparse en aquellos relacionados con las personas que trabajan en la organización y otros más generales.
En ningún caso relacionan la creación de ventajas a aspectos vinculados al avance
tecnológico.
A continuación se exponen los factores relacionados al equipo de trabajo, que las
empresas han considerado vitales para diferenciarse:
INVENIO 14 (26) 2011: 79-90
85
Juan Carlos Scarabino - María Belén Colonello
Respecto a otras capacidades, habilidades o competencias más generales a las que se
les atribuye la creación de ventajas sobre los competidores, se pueden citar:
Percepción respecto a TICs
w Conciencia de las empresas clientes de que pueden crearse ventajas competitivas
a partir de la implementación de TICs alineadas estratégica mente con su negocio
En casi todos los casos los entrevistados respondieron que sí consideran que sus clientes son conscientes de que pueden crear ventajas a partir de la implementación de TICs alineadas a su estrategia. Sólo en una respuesta se cree que solamente algunos clientes lo están.
Las justificaciones respecto a por qué lo creen, se enfocan más a la exigencia de
adaptarse al mercado, al confort y a la necesidad de herramientas de trabajo, que a la estrategia de posicionamiento.
Podría decirse que no hay una percepción de las capacidades diferenciadoras de las
TICs utilizadas estratégicamente, sino como herramientas útiles para trabajar.
w De la adquisición de TICs en las empresas y la promoción de las mismas
Las empresas coinciden que quien contacta al proveedor para la adquisición de TICs
es el dueño o gerente en pequeñas y medianas empresas, o el encargado del sector relacionado en empresas un poco más grandes.
Dos de las empresas encuestadas alegaron no realizar acciones de comunicación. Las
que sí lo hacen utilizan las formas que se detallan:
ü
ü
ü
ü
86
Marketing relacional
Referencias
Participación de eventos de la industria
Páginas de Internet
INVENIO 14 (26) 2011: 79-90
Innovación empresaria en Argentina. Difusión de TICs en las PyMEs
ü
ü
e-mails
Radio/TV
Puede decirse que si bien se tiene claridad respecto a que el “decididor” de la compra
de tecnología pertenece a niveles estratégicos de la empresa, no se posee certeza de que la
promoción sea planeada enfocándose a estos mismos o a los usuarios de la misma.
Por ello, se concluye que podría alinearse la comunicación a la gerencia, para que la
implementación de TICs sea vista como una decisión de tipo estratégica, más que como una
acción reactiva a los avances de mercado o la competencia.
Las empresas encuestadas consideran que la implementación de determinadas TICs
ha abierto el panorama para la implementación de otras y que es necesario internalizar una
tecnología para dar lugar a conocer y adquirir otras. Por lo tanto utilizan la estrategia de ofrecer un producto y luego de que sea adquirido e internalizado, ofrecer otro.
Oferta de TICs en Rosario
Seis de las empresas encuestadas considera que la oferta rosarina de TICs y servicios relacionados es lo suficientemente variada y de buena calidad, percibida así por el
cliente en comparación con la oferta que puede encontrar en CABA u otras ciudades grandes.
También manifiestan que puede competirse en precio.
Respecto a la existencia de rubros atendidos deficitariamente, algunas empresas respondieron que desconocen si los hay.
Muchas hicieron énfasis en que en algunos casos debería reforzarse la atención al
cliente y también el servicio de post-venta.
Difusión de TICs en PyMEs de Rosario
Respecto a qué nivel de difusión e implementación de TICs se cree que poseen las
PyMEs rosarinas, 4 de las empresas contestaron que el nivel de difusión es medio, 3 que es
bajo y sólo 2 que es alto.
Grado de difusión e implementación de TIC en PyMEs rosarinas:
INVENIO 14 (26) 2011: 79-90
87
Juan Carlos Scarabino - María Belén Colonello
Algunas de las causas que se considera han retrasado o impedido la implementación
de TICs o servicios relacionados en las PyMEs rosarinas son las siguientes (ordenadas por
cantidad de empresas que las manifestaron como posibles):
Las respuestas más valoradas reflejan que los proveedores de TICs no ven preparado al
mercado para su difusión a un ritmo más acelerado, tanto desde el punto de vista de los costos,
como de la madurez tecnológica de los clientes y la capacitación del personal en las empresas.
Conclusiones inferidas de la encuesta
Como se ha establecido en la introducción, se ha optado por la metodología de diseño no experimental, porque no se pudo determinar una solución o tendencia de comportamiento concreto, sino una serie de reflexiones y/o conclusiones respecto al tema planteado.
Por lo tanto no se ha buscado determinar un modelo óptimo de difusión y de alineación de
las PyMEs a las TICs, sino que el presente es solamente un intento de exponer una investigación que sirva de base para conocer el estado de este proceso en la realidad existente. El
muestreo fue de tipo no probabilístico por conveniencia, sobre un total aproximado de 40
empresas en la ciudad de Rosario.
Como conclusión de esta parte del estudio, se considera que la oferta rosarina de
TICs y servicios relacionados es lo suficientemente variada y de buena calidad percibida por
el cliente en comparación con la oferta que puede encontrase en CABA u otras ciudades grandes. También se manifiesta que puede competirse en precio, pero deben mejorar la atención
al cliente y también el servicio de post-venta.
Se concluye que los proveedores de TICs conocen las posibilidades de aportar a la
creación de ventajas aplicando las mismas, alineadas a la estrategia de las empresas clientes,
pero esto no es utilizado como argumento de venta a la hora de comunicar.
No se percibe la adquisición de TICs como una decisión de tipo estratégica por parte
de los clientes, sino más como una acción reactiva a los avances de mercado o la competencia.
Se percibe por parte de empresas proveedoras de TICs que el nivel de difusión e implementación de las mismas que poseen las PyMEs rosarinas es medio-bajo. Las principales
88
INVENIO 14 (26) 2011: 79-90
Innovación empresaria en Argentina. Difusión de TICs en las PyMEs
causas de retraso en implementación de TICs o servicios relacionados son:
-Que los clientes no están preparados para su uso
-Costos relacionados a adquisición, desarrollo y mantenimiento
-Falta de capacitación del personal para aprovecharlas.
Las respuestas más valoradas reflejan que los proveedores de TICs no ven preparado
al mercado para su difusión a un ritmo más acelerado, tanto desde el punto de vista de los
costos, como de la madurez tecnológica de los clientes y la capacitación del personal en las
empresas
En la tercera parte del estudio se abordará la difusión de las TICs en la PyMEs rosarinas y sus usos estratégicos, lo que permitirá obtener nuevas conclusiones y profundizar
las obtenidas hasta el momento.
Recibido: 03/10/10. Aceptado: 15/12/10
Nota
1 Landes Paul. The Unbound Prometheus. Boston, Harvard University Press, 1968.
BIBLIOGRAFÍA
Boscherini, F. y Yoguel, G. “La capacidad innovativa y el fortalecimiento de la competitividad de las firmas: el
caso de las PYMEs exportadoras argentinas”. Documento de Trabajo Nº 21, Oficina de la CEPAL Buenos
Aires. 1996.
Caravaca, Inmaculada y González, Gema “La innovación en los sistemas productivos locales de Andalucía”, VI
Seminario Internacional de la Red Iberoamericana de Investigación sobre Globalización y Territorio, Mayo
de 2001, Rosario. 2001.
Chudnovsky, Daniel Investigación y desarrollo e innovación en la Argentina. Buenos Aires, Universidad de San
Andrés, 2006,
Chudnovsky, D; Lopez, A. Y.; Pupato, G. “Innovation and productivity: A study of Argentine manufacturing firms
behaviors (1992-2001)” – Documento de trabajo 70, Dpto. de Economía. Buenos Aires, Universidad de San
Andrés, 2004.
Drucker, Peter “La innovación y el empresariado innovador”. Buenos Aires, Editorial Sudamericana, 1986.
Grosmann, G. y Helpmann, E.: “Innovation and Growth in the Global Economy”, Cambridge, Massachussetts,
MIT Press, 1992.
Instituto de investigaciones económicas. Relevamiento Productivo. Rosario, Universidad Nacional de Rosario
(Escuela de Economía, Facultad de Ciencias Económicas y Estadística), 2001.
Kosacoff, B. (2000): “El desempeño industrial argentino. Más allá de la sustitución de importaciones”, CEPAL,
Buenos Aires.
Landes, P. (1968), The Unbound Prometheus. Boston, Harvard University Press..
Lugones, Gustavo (2003),”Más y mejores indicadores de innovación en América Latina: el manual de Bogotá y
las encuestas de innovación como herramienta para la transformación económica y social”, p.5
Mendez, Ricardo y Caravaca, Inmaculada (1996): “Organización industrial y territorio”, Editorial Síntesis, España.
Milesi, D., Yoguel, G. y Moori Koenig, V. (2001): “Desarrollo de competencias endógenas y éxito exportador
de las Pymes en Argentina”, 6ta. Reunión anual de las Red Pymes Mercosur, Rafaela, Santa Fe, Argentina.
Monge González, R y otros (2005), TICs en las Pymes de Centroamérica, Editorial Tecnológica de Costa Rica y
INVENIO 14 (26) 2011: 79-90
89
Juan Carlos Scarabino - María Belén Colonello
el Centro Internacional de Investigaciones para el Desarrollo.
Peirano, Fernando y Suárez, Diana, (2006), “Estrategias empresariales para el uso aprovechamiento de las TICs
por parte de las Pymes argentinas en 2004” Congreso Internacional de la Información. La Habana . Disponible
en: http://www.intempres.pco.cu/Intempres2006/Intempres2006/Ponencias/246.doc
Precedo Ledo, A., Villariño Perz, M (1992): “La localización industrial”. Editorial Síntesis, Madrid, España.
Vázquez Barquero, Antonio (2000): “Desarrollo endógeno y Globalización”, en Eure, Revista Latinoamericana
de Estudios urbanos-regionales, Vol XXVI, Nº79, Santiago de Chile, Diciembre.
Vázquez Barquero, Antonio (1999): “Desarrollo, redes e innovación”, Ediciones Pirámide, Madrid, España.
Yoguel, Gabriel (2000): “Creación de competencias en ambientes locales y redes productivas”, en Revista de la
CEPAL Nº 71,Santiago de Chile, Agosto de 2000.
Yoguel, G. y Moori Koenig, V. (1999): “Los problemas del entorno de negocios. El desarrollo competitivo de
las PyMEs argentinas”, Universidad Nacional de General Sarmiento y FUNDES, Editorial Miño y Dávila,
Buenos Aires.
90
INVENIO 14 (26) 2011: 79-90
FIBRA ALIMENTARIA: CONSUMO EN ESTUDIANTES
UNIVERSITARIOS Y ASOCIACIÓN
CON SÍNDROME DE INTESTINO IRRITABLE
Nadia Meisner - Karina Muñoz - Romina Restovich,
María Elisa Zapata - Silvina Camoletto - María Cecilia Torrent
Jorge Molinas*1
RESUMEN: La fibra dietética es importante para la prevención y tratamiento de algunas enfermedades crónicas. Dentro del grupo de Enfermedades Funcionales Digestivas, el Síndrome
de Intestino Irritable (SII) es la de mayor prevalencia. Los estudios que evaluaron la relación de
la fibra en individuos con SII han arrojado resultados contradictorios. El objetivo se centra en
estimar el consumo de FA, valorar la prevalencia de SII y el grado de asociación entre ambos.
En cuanto a los materiales y métodos utilizados, se realizó un estudio observacional, de corte
transversal, con 657 individuos, entre 17 y 50 años, 90,9% sexo femenino que concurren a la
Universidad del Centro Educativo Latinoamericano (UCEL), Rosario, Argentina. Se utilizó una
encuesta semicuantitativa sobre consumo de alimentos fuente de FA y un cuestionario validado
para síntomas de SII (ROMA III). Con referencia a los resultados el consumo promedio de FA
fue de 15,3 g/día (10,26 g/día fibra insoluble -FI- y 5,04 g/día fibra soluble -FS-. El 39,1% de
los individuos manifestaron padecer síntomas de SII. En ellos se halló un menor consumo promedio de FA proveniente de vegetales cocidos y crudos. En conclusión, se halló un consumo
de FA inferior al recomendado, una elevada prevalencia de SII y los individuos sintomáticos
manifestaron un menor consumo de FA proveniente de vegetales cocidos y crudos.
Palabras clave: fibra alimentaria - enfermedades funcionales digestivas - síndrome intestino irritable.
ABSTRACT: Dietary fiber: consumption among university students and its association
with irritable bowel syndrome symptoms
Dietary fiber (DF) is important to prevent and treat some chronic pathologies. Studies
have shown a highest prevalence of irritable bowel syndrome (IBS) among functional gastrointestinal disorders. Trials assessing fiber relationship in IBS subjects have yielded
contradictory results. This study aims at determining the consumption of DF, assessing IBS
* Nadia Meisner, Karina Muñoz y Romina Restovich son Licenciada en Nutrición egresadas de la Universidad
del Centro Educativo Latinoamericano (UCEL). E- mail: nadiameisner@hotmail.com; mkari_22@hotmail.com;
romiss07@hotmail.com
M. Elisa Zapata es docente de la Licenciatura en Nutrición de la UCEL en la cátedra de Fisiopatología y Dietoterapia del Adulto. E- mail: mariaelisaz@hotmail.com
Silvina Camoletto es docente de la Licenciatura en Nutrición de la UCEL en la Cátedra de Nutrición Normal y
Coordinadora del Área de Tesinas de UCEL. E- mail: silvinacamoletto@hotmail.com
María Cecilia Torrent es docente e investigadora de la UCEL en las cátedras de Nutrición Normal y Dietoterapia
del Adulto. Directora de la carrera Licenciatura en Nutrición de UCEL. Investigadora del proyecto NUT802 de
UCEL donde se origina esta línea de investigación. E-mail: mctorrent@arnet.com.ar
Jorge Molinas es docente e investigador de la Universidad del Centro Educativo Latinoamericano en las cátedras
de Fisiología y Fisiopatología del Adulto. Docente e investigador de la Universidad Nacional de Rosario en la
cátedra de Fisiología Humana. Director del proyecto NUT802. E-mail: Jorge_molinas@yahoo.com.ar
INVENIO 14 (26) 2011: 91-100
91
N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas
prevalence and evaluating the association between DF and IBS. As regards materials and
methods, the research was designed as an observational cross-section study, involving 657
17-50- year-old subjects (90.9% women) attending the Universidad del Centro Educativo
Latinoamericano (UCEL) in Rosario, Argentina. A semi-quantitative survey on the consumption of fiber rich foods and a symptom validated questionnaire (ROME III) was used.
Results showed 15.3 g/day DF average consumption (10.26 g/day insoluble fiber (IF) and
5.04 g/day soluble fiber (SF). IBS symptoms were reported by 39.1% subjects. This group
showed a lower average intake of DF from cooked and raw vegetables. The results showed
lower DF consumption in relation to the recommended values and a high prevalence of
IBS. Symptomatic subjects reported a lower intake of DF from cooked and raw vegetables.
Key words: dietary fiber - functional gastrointestinal disorders - irritable bowel syndrome
Introducción
La inclusión de la fibra alimentaria (FA) en la dieta de los seres humanos parece
desempeñar una importante función para la prevención y el tratamiento de algunas enfermedades crónicas (García Peris P y col., 2007). Diversos estudios epidemiológicos han demostrado que un consumo adecuado de FA aporta beneficios para la salud, entre los que se encuentran la reducción del riesgo de cáncer colorrectal y de alteraciones en el ritmo y tránsito
intestinal, efecto hipocolesterolémico, disminución del riesgo de enfermedad cardiovascular
y mejor control de la diabetes mellitus tipo 2, entre otros (Cabrera Llano y col., 2006).
Se denomina fibra dietética a los hidratos de carbono y lignina no digeribles en el
intestino delgado humano que provienen de plantas comestibles en las cuales la matriz vegetal está mayoritariamente intacta. (FNB, 2002).
Los principales componentes de la FA son los polisacáridos no almidón; los oligosacáridos resistentes a la digestión, lignina; sustancias asociadas a polisacáridos no almidón;
almidón resistente, hidratos de carbonos sintéticos y otros derivados de la celulosa; y las
fibras de origen animal (Mateu de Antonio, 2004; Mataix Verdú,2005; Escudero Álvarez y
Gonzáles Sánchez, 2006; FNB, 2002).
Los efectos fisiológicos de la FA derivan de sus características fisicoquímicas como
su capacidad de retención hídrica, viscosidad, sensibilidad a la fermentación, capacidad de
intercambio catiónico, capacidad de adsorción de sustancias e inhibición enzimática. Las
mismas pueden modificarse en función de diversos factores como la madurez del alimento,
tipo de cocción, presencia de otros tipos de fibra o diversos nutrientes, pH, secreciones digestivas, tipo de microflora intestinal (Mataix Verdú, 2005).
Según el Comité de Alimentos y Nutrición del Instituto de Medicina de la Academia
Nacional de Ciencias de los EEUU la recomendación de consumo de fibra es de 38g/día y
25g/día para individuos menores de 50 años de sexo masculino y femenino respectivamente,
y de 30g/día para hombres y 21 g/día para mujeres mayores de 50 años (FNB, 2002). Se
recomienda que la cantidad de fibra total consumida con la alimentación mantenga una proporción 3/1 entre fibra insoluble (FI) y soluble (FS) respectivamente (Park., 2000; Gómez y
col., 2003; Escudero Álvarez y Gonzáles Sánchez., 2006).
Distintos trabajos señalan a los cereales como las principales fuentes dietéticas de
fibra (40 a 54%), seguido por las verduras (29 a 35%), las frutas (11 a 26%) y en menor proporción, las legumbres (2 a 7%) (Park, 2000).
92
INVENIO 14 (26) 2011: 91-100
Fibra alimentaria: consumo y asociación con síndrome de intestino irritable
El Síndrome de Intestino Irritable (SII) es un trastorno funcional crónico, episódico
y recurrente, caracterizado por la presencia de dolor o malestar abdominal que se alivia con
la defecación, asociado a distensión abdominal y cambios en la frecuencia o consistencia de
las deposiciones (constipación, diarrea o alternancia de ambos) en ausencia de alteraciones
anatómicas o bioquímicas demostrables a nivel intestinal (Longstreth y col., 2006).
A nivel mundial, alrededor del 10-20% de los adultos y adolescentes presentan síntomas de SII, y la mayoría de los estudios encuentran un predominio en el sexo femenino
(Longstreth y col., 2006). En los países industrializados afecta a uno de cada 6 individuos,
constituyendo el 38% de las consultas con el médico gastroenterólogo y el 12% con el médico general (Heitkemper y col., 2002)
El tratamiento está determinado por el tipo y la gravedad de los síntomas y la naturaleza de los problemas psicosociales asociadas, indicando la necesidad de apoyo psicológico,
médico y nutricional (Longstreth, G. y col; 2006). El tratamiento dietético se basa en mejorar la digestión, reestablecer el equilibrio de la microflora intestinal, reducir la irritación y
reparar la pared intestinal. Para cumplirlos es esencial conocer cuáles son los alimentos que
agravan los síntomas, ya que algunos estudios han demostrado que cuando se identifican y se
evitan disminuyen los síntomas y la producción de gases (Madden y col., 2002; Dapoingny y
col., 2003; Francis y Whorwell, 2004).
La mayoría de los autores coinciden en recomendar una dieta rica en fibra cuando
hay estreñimiento, no siendo aconsejable en presencia de diarrea. En general se recomienda
una dieta hipograsa, ya que las grasas pueden estimular la motilidad del colon; disminuir la
ingesta de alimentos mal tolerados como bebidas gaseosas y aquellos que aumentan la producción de gases, como cebolla, coles, sandía, alimentos excitantes y picantes, entre otros.
En caso de diarrea, se aconseja disminuir el consumo de café y cacao (Mataix Verdú, 2005).
Si bien las investigaciones demuestran que puede ser útil en algunos pacientes, la
revisión de cuarenta y seis publicaciones científicas no revela pruebas concluyentes sobre la
eficacia del tratamiento con fibra en pacientes con SII. Por otra parte, los trabajos de investigación que han analizado la asociación entre el consumo de FA y síntomas de SII muestran
resultados contradictorios (Floch, 2005).
Material y métodos
Se realizó un estudio de tipo observacional, transversal. Se tomó una muestra (calculada
utilizando un poder de 80% con un error alfa de 0.05, asumiendo, al promediar estudios en poblaciones similares, un consumo estimado de fibra de 15 g/día) de 657 estudiantes universitarios
de ambos sexos, con edades comprendidas entre 17 y 50 años, que cursaban diferentes carreras,
elegidos al azar, encuestados durante los meses de mayo y junio de 2008, que permitió estimar el
consumo de alimentos fuente de FA y su asociación con la presencia de síntomas de SII.
Las principales variables estudiadas fueron, la cantidad (en gramos) de Fibra Total,
FI y FS consumida proveniente de cereales, vegetales, frutas y legumbres; y la presencia de
síntomas de SII. Se consideró también el sexo y la edad.
Para recolectar datos se empleó un cuestionario semicuantitativo de consumo de
alimentos fuente de FA y presencia de síntomas de SII según los criterios ROMA III.
Para el cálculo del contenido de FT, FS y FI se utilizaron tablas de contenido y
composición de la fibra en alimentos (Marlett, 1992), de composición química de alimentos
(Mazzei y Puchulú, 1995) e información brindada por empresas elaboradoras de alimentos.
INVENIO 14 (26) 2011: 91-100
93
N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas
El análisis estadístico de la información se efectuó con EPI INFO. Para comparar medias aritméticas se utilizó el test de Anova para datos distribuidos normalmente o análisis no
paramétricos con el test de Kruskal-Wallis. Para el análisis de las asociaciones entre las distintas
variables se calculó el Odds Ratio (OR) con límites de confianza de Cornfield al 95% (IC 95%)
mediante Chi-Cuadrado con corrección de Yates. Para ponderar la influencia de los factores de
confusión se realizaron análisis estratificados calculando el Odds ratio crudo para todos los estratos y el Odds ratio onderado de Mantel-Haenszel con límites de confianza de Cornfield 95%.
Por parte de los investigadores se adquirió el compromiso de mantener estrictamente el anonimato de los encuestados.
Resultados
La muestra fue de 657 estudiantes, 90,9% de sexo femenino con un edad media de
x= 20,8 ± sd 3,8 años.
El 96,2% de los individuos encuestados manifestó consumir algún alimento con fibra. En la Figura 1 se observa sobre el total de los individuos (n=657) el porcentaje de los que
consumían distintos alimentos fuente de FA.
Figura 1. Porcentaje de individuos que consumen alimentos con fibra
100
96,2
94,8
77,8
80
%
93,7 95,3
92,5 95,2
74,2
64,7
60
38,6
31,5
40
20
0
go
Ju
s
as
as
ut
ut
Fr
Fr
en
as
id
m
co
as
id
m
co
as
cid
es
as
en
os
cid
co
os
ud
cr
to
en
ud
s
co
cr
le
s
br
m
as
gu
ut
Le
Fr
ta
le
s
le
ta
ge
ge
Ve
Ve
ta
ge
Ve
as
im
al
es
al
n
re
rr
Ba
Ce
gu
Al
El consumo diario promedio de FA en la muestra fue de 15,3 ±14,1 gramos/día (Tabla 1). Se estimaron los gramos de fibra soluble e insoluble siendo de 5,04 g/día la ingesta de
fibra soluble y 10,26 g/día la de fibra insoluble (Tabla 1). No se hallaron diferencias significativas entre estos valores y las variables sexo y edad.
En la Tabla 2 puede observarse el consumo diario promedio de FA proveniente de
diferentes alimentos fuente para el total de la muestra.
Tabla 1. Consumo promedio de FT, FI y FS
Fibra alimentaria
Fibra Total
Fibra Insoluble
Fibra Soluble
94
g/día
15,3 g/día
10,26 g/día
5,04 g/día
INVENIO 14 (26) 2011: 91-100
Fibra alimentaria: consumo y asociación con síndrome de intestino irritable
Tabla 2. Consumo promedio de FA de diferentes alimentos fuente.
Gramos diarios de fibra en el total de la
muestra X ± sd (g/día)
0,63 ± 0,66
3,57 ± 4,49
2,41 ± 2,88
2,92 ± 3,95
0,29 ± 0,38
3,90 ± 5,77
0,13 ± 0,50
0,26 ± 1,12
0,09 ± 0,19
0,92 ± 1,99
Fuente de fibras
Cereales en preparaciones
Vegetales cocidos
Vegetales crudos
Vegetales en otras comidas
Barra de cereales
Frutas crudas
Frutas cocidas
Frutas en otras comidas
Jugos de fruta naturales
Legumbres
Se observó un mayor consumo diario de FA en el sexo femenino que en el masculino, pero las diferencias no alcanzaron la significación estadística exigida, sin embargo se
obtuvieron diferencias en el consumo de FA provenientes de algunos alimentos fuente en
particular, como se observa en la Tabla 3.
Tabla 3. Consumo de diferentes alimentos fuente de FA según el sexo.
Fuente de fibra
Vegetales crudos
Vegetales cocidos
Vegetales en otras preparaciones
Barra de cereales
Jugos de fruta naturales
Hombres
1,35 g/día
1,76 g/día
1,35 g/día
0,11 g/día
0,14 g/día
Mujeres
2,58 g/día
3,74 g/día
2,58 g/día
0,30 g/día
0,08 g/día
P
<0,05
<0,0005
<0,05
<0,0005
<0,05
No se encontraron diferencias significativas en el consumo diario de FA y la edad de
los individuos encuestados.
Frecuencia de Síndrome de Intestino Irritable
El 39,1% de los individuos manifestaron padecer los criterios definidos por el consenso ROMA III para SII. Se encontró una mayor frecuencia de síntomas de SII en mujeres
que en hombres (OR=1,81; p<0,05), lo cual puede observarse en la Figura 2.
Figura 2: Prevalencia de síntomas de SII y sexo
Fem enino
40,2
Masculino
59,8
27,7
0%
20%
SII +
INVENIO 14 (26) 2011: 91-100
72,3
40%
60%
80%
100%
SII -
95
N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas
Consumo de FA en relación con síntomas de SII
Se encontró un mayor consumo de FA en individuos sin síntomas de SII (15,9 g/día
vs. 14,37 g/día), sin embargo esta diferencia no alcanzó la significación estadística exigida
(p=0,25). De todas maneras se encontraron diferencias estadísticamente significativas al separar por alimentos fuente de FA (Tabla 4).
Tabla 4. Consumo de fibra vegetal según la presencia o ausencia de síntomas de SII
Fuente de fibra
Vegetales cocidos
Vegetales crudos
SII +
3,05 g/día
2,13 g/día
SII 3,90 g/día
2,60 g/día
P
<0,05
<0,05
Se comparó el consumo de fibra soluble e insoluble (total y en diferentes grupos de
alimentos) con la presencia o ausencia de síntomas de SII y no se encontraron diferencias
estadísticamente significativas.
Discusión
El objetivo del presente trabajo fue valorar el consumo diario de FA y su asociación
con la presencia de síntomas de SII en estudiantes de una universidad (UCEL) de Rosario,
Argentina.
Los resultados mostraron un bajo consumo promedio de FA (15,3 g/día) en relación
a lo recomendado por los diferentes organismos y sociedades científicas. El consumo estimado de FA fue similar a los resultados hallados en tres trabajos de investigación realizados
en diferentes países. Martínez Roldán y colaboradores observaron un consumo de 15,3 g/día
en mujeres y de 18,1 g/día para varones, en estudiantes universitarios de Madrid (Martínez
Roldán y cols., 2005). Albert y colaboradores encontraron un consumo de 16,8 g/día en
estudiantes de un colegio de Venezuela (Albert y cols., 2002) y Park describió un consumo
promedio de FA de 17,8 g/día en un grupo de adultos de la población chilena (Park , 2000). A
su vez la ingesta estimada de FA hallada en este estudio se acerca al menor rango de la ingesta
típica de FA de la dieta occidental (que varía entre 16 y 43 g/día) (Green, 2000).
Otros estudios latinoamericanos han mostrado mayor consumo diario de FA que los
hallados por este trabajo. Mattos y Martins Salas estimaron el consumo en estudiantes brasileños en 24 g/día y Zapata observó 24,9 g/día en estudiantes de UCEL (Mattos y col., 2000;
Zapata, 2008). Este último trabajo mencionado, realizado con anterioridad a nuestro estudio,
fue ejecutado durante el año 2006, evaluando 115 estudiantes de cuarto año. Las diferencias
con nuestros resultados podrían deberse a la variación de los hábitos alimentarios y culturales
en los distintos países, a los diferentes niveles socioeconómicos que podrían afectar el acceso
a alimentos fuente de FA, y a la estructura de los cuestionarios de frecuencia de consumo
alimentarios utilizados en cada estudio.
Es importante destacar que en este estudio la cantidad de fibra consumida podría estar
subestimada ya que el consumo estimado de FA se cuantificó a través del consumo de los alimentos fuente de fibra y no se incluyeron algunos alimentos del mercado suplementados con
ella. Además, si bien en los cálculos para estimar el consumo de fibra se incluyó al arroz integral y las ciruelas desecadas, en el cuestionario de frecuencia de consumo de alimentos no se
diferenció entre cereales completos o integrales y subproductos elaborados con harina integral
(panes integrales, galletitas integrales, entre otros) y a los subgrupos frutas secas y desecadas.
96
INVENIO 14 (26) 2011: 91-100
Fibra alimentaria: consumo y asociación con síndrome de intestino irritable
De todas maneras la ingesta habitual o las recomendaciones de FA deberían ser consideradas solo como aproximaciones y no como valores absolutos. Los métodos analíticos
existentes no cuantifican algunas de las nuevas sustancias que se han incluido dentro de la
definición de FA y por lo tanto las tablas de composición química de alimentos utilizadas para
los cálculos nutricionales de fibra en la dieta no serían exactas (Mateu de Antonio, 2004).
Organismos y sociedades científicas internacionales recomiendan que el total de fibra
consumida en la alimentación debería mantener en una proporción 3/1 en la cantidad de FI y
FS, lo que correspondería a 75% de FI y 25% de FS del total de la fibra consumida (Park, 2000;
Gómez y col., 2003; Escudero Álvarez y Gonzáles Sánchez, 2006). En el presente estudio se
observó un consumo de FI menor (67%) y mayor de FS (33%) que los recomendados.
Los resultados de esta investigación mostraron que el mayor aporte de FA en la dieta
se realizó principalmente a través de vegetales (59,5%) y frutas (29%) seguido por cereales
y legumbres (12,2%). Estos datos difieren de lo observado en el estudio de Park donde se
menciona a los cereales como los principales alimentos que aportan fibra en la dieta (de un
40-54%) seguidos por vegetales (29-35%) y frutas (11-26%) (Park, 2000).
No se observaron diferencias significativas en cuanto al consumo diario de FA total
y el sexo, pero si se halló mayor consumo de FA proveniente de algunos alimentos en particular: vegetales cocidos, crudos, como componentes de otras preparaciones, y en barras de
cereales en el sexo femenino, siendo menor el consumo de exprimidos de frutas naturales.
La prevalencia del SII en Latinoamérica oscila entre el 9 y el 18%. La variabilidad
en las frecuencias aportadas en la bibliografía puede deberse a diferencias culturales o al uso
de criterios diagnósticos diferentes, siendo la distribución por sexos de 2 a 4 mujeres por
cada varón. (Valenzuela y cols, 2004) En el presente estudio un elevado porcentaje de los
individuos encuestados manifestaron tener presentes los síntomas de SII (39,1%) siendo los
mismos también más frecuentes en mujeres (40,2%) que en varones (27,7%).
Si se acepta que el SII tiene un origen multifactorial en el que se integran factores biológicos (sensibilidad, motilidad), psicosociales e inmunológicos, la alimentación tiene una participación evidente en su fisiopatología puesto que estimula al sistema digestivo generando respuestas
sensitivas y reacciones motoras, es fuente exógena de antígenos y es una actividad diaria que
fácilmente puede influir o estar influida por factores de la esfera psicosocial (Rey, 2004).
En la muestra estudiada no se encontraron diferencias significativas en la cantidad consumida de FA en relación con la presencia o ausencia de síntomas de SII, sin embargo al analizar el consumo de FA por grupo de alimentos, se encontró una diferencia significativa (p<0,05)
en cuanto a la ingesta de vegetales cocidos y crudos, presentándose un menor consumo en
individuos que tenían presentes síntomas de SII en comparación con los individuos que no
presentaban dichos síntomas (3,05 y 2,13 g/día en relación a 3,90 y 2,60 g/día respectivamente).
Estos resultados se asemejan a los encontrados por Hillman, quien tampoco observó
diferencias significativas en el consumo medio de fibra total entre el grupo con SII (17 g/día)
y el grupo control (18 g/día) pero encontró diferencias significativas (p<0.05) en el consumo
de FA proveniente de hortalizas, destacando una menor ingesta por parte de los individuos
con SII (6,6 g/día) en comparación a los individuos que no lo presentaban (8,2 g/día) (Hillman y cols., 1982). De manera similar, el estudio de Aller mostró una ingesta media de FA
baja (7,48 g/día), con menor proporción de fibra soluble (19%) que insoluble (71%) y demostró una correlación entre la baja ingesta de fibra y la severidad de los síntomas de SII, siendo
la fibra insoluble la principal responsable de esta asociación (Aller y cols., 2004).
La mayor presencia de síntomas en individuos con bajo consumo de vegetales podría
INVENIO 14 (26) 2011: 91-100
97
N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas
deberse a efectos protectores de la fibra u otros componentes de los mismos, pero también a
que los individuos con síntomas podrían estar suprimiéndolos de su dieta por percibir mayor
grado de dolor o por indicación médica.
Algunos estudios han demostrado que identificar y evitar los alimentos que agravan
los síntomas de SII se traduce en una respuesta clínica sostenida, con mejoras en los síntomas, la producción de gas, el bienestar general y la calidad de vida (Dapoigny y cols., 2003;
Drisko y cols., 2006; Madden, y Hunter, 2002).
En relación al beneficio de la FA en el tratamiento del SII, un metaanálisis que incluyó 23 ensayos aleatorizados y controlados a doble-ciego no proporcionó evidencias claras de
una mejoría significativa de los síntomas de SII. Por otra parte, el aporte de fibra no mejora
el dolor abdominal asociado al SII e incluso puede aumentar la sensación de distensión y flatulencia. Pese a todo, algunos individuos experimentan alivio del estreñimiento al aumentar
el aporte de fibra en la dieta de un modo gradual, hasta 20-25 g/día (Mearin, Montoso, 2005).
Aunque existen diversos estudios que demostraron la utilidad de la fibra en individuos con síntomas de SII (Arffmann y cols., 1985; Parisi y cols., 2002; Giannini y cols.,
2006), otros han arrojado resultados contradictorios (Lucey y cols., 1987; Snook y Shepherd,
1994; Lesbros-Pantoflickova y cols., 2004; Aller y cols., 2004; Floch, 2005). A pesar de ello,
durante años, la administración de una dieta rica en fibra y/o suplementos, como el salvado,
se ha considerado una medida terapéutica efectiva en el tratamiento del SII.
Un metaanálisis que evaluó las posibles acciones de FS o FI sobre la función del
colon y los síntomas de SII, concluyó que la suplementación con FS posee un efecto beneficioso significativo sobre el estreñimiento pero empeora el dolor abdominal, y la FI mejora
el estreñimiento y no presenta efectos sobre el dolor abdominal pero puede empeorar otros
síntomas de SII (Bijkerk y cols., 2004).
La relación entre el SII y la ingesta de FA sigue siendo controvertida tanto desde
el punto de vista fisiopatológico (¿una menor ingesta de FA se relaciona con el SII?) como
desde el punto de vista terapéutico (¿son los suplementos de fibra o las dietas ricas en fibra
beneficiosos?). Sería de interés responder a estos cuestionamientos a través de la realización
de un mayor número de estudios con diseños metodológicos longitudinales a doble-ciego
controlado con placebo.
Conclusión
El consumo promedio de FA en la muestra estudiada fue de 15,3 g/día (10,26 g/día
FI y 5,04 g/día FS), sin observarse diferencias significativas entre ambos sexos. Este valor
fue inferior al recomendado por los diferentes organismos y sociedades científicas internacionales.
Se encontró una elevada prevalencia de síntomas de SII en la población estudiada.
Los individuos portadores de los mismos manifestaron un menor consumo de FA proveniente de vegetales cocidos y crudos. No se observaron diferencias significativas al comparar la
cantidad y el tipo de fibra consumido (FI y FS, total y en diferentes grupos de alimentos) con
la presencia o ausencia de síntomas de SII.
Recibido: 10/08/10. Aceptado: 22-12-10.
98
INVENIO 14 (26) 2011: 91-100
Fibra alimentaria: consumo y asociación con síndrome de intestino irritable
BIBLIOGRAFÍA
Albert, P., Bernal Rivas, J., Dehollain, J.P., Blanco, R. (2002) Consumo de frutas y hortalizas en adolescentes de
un colegio privado de Caracas, Venezuela. An Venez Nutr; 15 (1):18-24.
Aller, R., de Luis, D.A., Izaola, O., La Calle, F., del Olmo, L., Fernández, L., Arranz, T., González Hernández,
J.M. (2004) Patrón de ingesta en un grupo de pacientes con síndrome de intestino irritable; relación de la ingesta de fibra con los síntomas. An Med Interna; 21: 577-580.
Arffmann, S., Andersen, J.R., Hegnhoj, J. y cols.The effect of coarse wheat bran in the irritable bowel syndrome.
(1985) Scand J Gastroenterol; 20:295-8.
Bijkerk, C.J., Muris, J.W., Knottnerus, J.A., Hoes, A.W., de Wit, N.J. (2004) Systematic review: the role of different types of fibre in the treatment of irritable bowel syndrome. Aliment Pharmacol Ther; 19:245-51.
Cabrera Llano, J.L., Cardenas Ferrer, M. Importancia de la fibra dietética para la nutrición humana. (2006) Rev
Cubana Med Gen Integr; 22 (4)
Dapoigny, M., Stockbrügger, R.W., Azpiroz, F., Collins, S., Coremans, G., Müller-Lissner, S., Oberndorff, A,,
Pace, F., Smout, A., Vatn, M., Whorwell, P. (2003) Role of alimentation in irritable bowel syndrome. Digestion;
67(4):225-33.
Drisko, J., Bischoff, B., Hall, M., McCallum, R. (2006) Treating irritable bowel syndrome with a food elimination
diet followed by food challenge and probiotics. J Am Coll Nutr; 25(6):514-22.
Escudero Álvarez, E., Gonzáles Sánchez, P. (2006) La fibra dietética. Nutr Hosp; 21:61-72. Floch, M.H. (2005) Use of diet and probiotic therapy in the irritable bowel syndrome: analysis of the literature.
J Clin Gastroenterol;39(5 Suppl 3):S243-6
Food and Nutrition Board. Institute of Medicine. Dietary Reference Intakes: Proposed Definition of Dietary Fiber
(2002). National Academic Press. Panel on definition of dietary fiber. Standing Comité on the Scientific Evaluation of dietary referente intakes. Washington, 2002.
Francis, C.Y., Whorwell, P.J. (1994) Bran and irritable bowel syndrome: time for reappraisal. Lancet; 344:39-40.
García Peris, P., Velasco Gimeno, C. (2007). Evolución del conocimiento de fibra. Nutr. Hosp 2007; 22:20-25.
Giannini, E.G., Mansi, C., Dulbecco, P., Savarino, V. (2006) Role of partially hydrolyzed guar gum in the treatment of irritable bowel syndrome. Nutrition; 22(3):334-42.
Gómez, C., Cos Blanco, A., Iglesias Rosado, C. (2002) Fibra y nutrición enteral. Nutr. Hosp; 17(sup.2):30-40.
Gómez, C., Muñoz, E., Marín, M., Cos Blanco, A.. Fibra Alimentaria. Nutrición y salud. 2003; 3:143-160.
Green, C.J. (2000) Fibre in enteral nutrition. South Afr J Clin Nutr; 13:150-160.
Heitkemper, M.M., Jarrett, M., Cain, K., et al. (2002) A comprehensive self-management program reduces symptoms and enhances quality of life in women with IBS. Gastroenterology; 122: A-70.
Hillman, L.C., Stace, N.H., Fisher Pomare, E.W. (1982) Dier intake and stool characteristics patients with irritable
bowel syndrome. Am J Clin Nutr; 36: 626-629.
Lesbros-Pantoflickova, D., Michetti P., Fried, M., Beglinger, C., Blum, A.L. (2004) Meta-analysis: The treatment
of irritable bowel syndrome. Aliment Pharmacol Ther; 20(11-12):1253-69
Longstreth, G.F., Thompson, W.G., William, D.C., Houghton, L.A., Mearin, F., Spiller, R.C. (2006) Functional
Bowel Disorders. Gastroenterology; 130:1480–1491.
Lucey, M.R., Clark, M.L., Lowndes, J., Dawson, A.M. (1987) Is bran efficacious in irritable bowel syndrome?
Gut 1987;28:221-5.
Madden, J.A., Hunter, J.O. A review of the role of the gut microflora in irritable bowel syndrome and the effects
of probiotics. Br J Nutr 2002 Sep;88 Suppl 1:S67-72.
Marlett, J.A. (1992) Content and composition of dietary fiber in 117 frequently consumed foods. J Am Diet Assoc.
92(2):175-86.
Martínez Roldán, C., Veiga Herreros, P., López de Andrés, A., Cobo Sanz, M. y Carbajal Azcona, A. (2005) Evaluación del estado nutricional de un grupo de estudiantes universitarios mediante parámetros dietéticos y de
composición corporal. Nutr. Hosp; 20(3): 197-203.
Mataix Verdú, J. (2005) Nutrición y Alimentación Humana. Océano, Editorial Ergon, Barcelona.
Mateu de Antonio, X. (2004) La fibra en la alimentación. Farmacia hospitalaria; 3:1-16.
Mattos, L., Martins Salas, I. (2000) Consumo de fibras alimentares em população adulta. Rev. Saúde Pública; 34
(1): 50-55.
Mearin, F., Montoso, M. Síndrome de intestino irritable. En: Montoso, M., Castells, A., Mearin, F., Gisbert, J.,
Gomollon, F., Santolaria, S. (2005) Problemas comunes en la practica clínica: Gastroenterología y Hepatología
INVENIO 14 (26) 2011: 91-100
99
N. Meisner - K. Muñoz - R. Restovich - M. E. Zapata - S. Camoletto - M. C. Torrent - J. Molinas
vol. 1. Jarpyo, Madrid, 2005. p. 384-390
Mazzei, M.E., Puchulú, M.R. Tabla de Composición Química de Alimentos. 2da. ed. Buenos Aires. Centro de
Endocrinología Experimental y Aplicada. CENEXA-FEIDEN Editores; 1995.
Park, D. N. (2000) La fibra dietética en la alimentación humana, importancia en la salud. Anales de la Universidad de
Chile. VI serie: Nº11. [Disponible en http://www2.anales.uchile.cl/CDA/an_complex/0,1279,SCID%253D2293
%2526ISID%253D7%2526ACT%253D0%2526PRT%253D1828,00.html] [Acceso: marzo de 2009)
Parisi, G.C., Zilli, M., Miani, M.P., Carrara, M., Bottona, E-, Verdianelli, G-, Battaglia, G-, Desideri, S-, Faedo,
A., Marzolino, C., Tonon, A., Ermani, M., Leandro, G. (2002) High-fiber diet supplementation in patients with
irritable bowel syndrome (IBS): a multicenter, randomized, open trial comparison between wheat bran diet and
partially hydrolyzed guar gum (PHGG). Dig Dis Sci; 47(8):1697-704
Rey, E. (2004) La dieta y el síndrome de intestino irritable. An Med Interna; 21: 575-576.
Snook, J., Shepherd, H.A. (1994) Bran supplementation in the treatment of irritable bowel syndrome. Aliment
Pharmacol The; 8:511-4.
Valenzuela, J., Alvarado, J., Cohen, H., Damiao, A., Fransisconi, C., Frugone, L. y cols. (2004) Un consenso latinoamericano sobre el síndrome del intestino irritable. Gastroenterol Hepatol; 27(5):325-43
Zapata, M.E. (2008) “Evaluación y comparación del consumo de fibra dietética entre los estudiantes de nutrición
de Ucel (Rosario – Argentina) y Unimep (Piracicaba – Brasil)”. Actualización en Nutrición; 9(2): 127-142.
100
INVENIO 14 (26) 2011: 91-100
LOS EFECTOS QUE PRODUCE LA CREATINA
EN LA PERFORMANCE DEPORTIVA
Paula Carrillo - María Victoria Gilli*1
RESUMEN: Se ha propuesto realizar una investigación sobre los efectos de la suplementación con creatina como ayuda ergogénica para mejorar la performance deportiva.
La investigación consistió en una evaluación del consumo de creatina, en una muestra
representativa de deportistas recreacionales y amateurs que concurren a gimnasios habilitados de la ciudad de Pergamino, provincia de Buenos Aires. Las investigaciones
disponibles indican que la creatina puede incrementar el contenido muscular de fosfocreatina -pero no en todos los individuos-, lo cual puede incrementar el rendimiento
de ejercicios de intensidad elevada y corta duración, especialmente durante series repetidas. Son necesarias investigaciones más específicas sobre los efectos del consumo
crónico de creatina en la performance deportiva.
Palabras clave: creatina - ayudas ergogénicas - rendimiento muscular.
ABSTRACT: Creatine effects on athletic performance
The research aims at assessing the effects of creatine supplements as ergogenic aids
to enhance athletic performance. Creatine consumption was studied in a representative
sample of sporting amateurs attending certified fitness centers in the city of Pergamino, in Buenos Aires province. Available research shows creatine may increase muscle
phosphocreatine, although not in all subjects, and consequently enhance performance
in high-intensity, short exercises, particularly during repeated series. Further specific
research is necessary to determine the effect of chronic creatine consumption on athletic performance.
Key words: creatine - ergogenic aids - muscle performance
Introducción
La creatina es un compuesto nitrogenado natural que se combina con fosfato originando fosfocreatina. Esta última tiene gran importancia en el metabolismo energético durante la contracción del músculo esquelético y la recuperación tras un esfuerzo físico, debido a
que este compuesto es el responsable de la resíntesis de ATP (adenosintrifosfato) a partir de
ADP (adenosindifosfato) por medio de una reacción catalizada por la enzima creatinquinasa1.
Se postuló que la suplementación con creatina mejora la actividad de los deportistas,
aumentando la fuerza y la energía muscular, acelerando el tiempo de recuperación entre ejercicios intensos y de corta duración2.
Las opiniones y los resultados obtenidos en diferentes estudios con atletas, manifiestan
una marcada divergencia entre los investigadores en cuanto a la validación de su empleo, sus
efectos colaterales y en relación a concepciones éticas sobre la suplementación con creatina3.
* Paula Carrillo y María Victoria Gilli son Licenciadas en Nutrición por la Universidad del Centro Educativo
Latinoamericano UCEL. Las autoras agradecen la dirección de la Licenciada Lucila Pivetta y la co-dirección de
la Licenciada Diana Domínguez. E-mail: paula_carrillo11@hotmail.com, mariavictoriagilli@yahoo.com.ar
INVENIO 14 (26) 2011: 101-115
101
Paula Carrillo - María Victoria Gilli
Debido a la controversia suscitada se ha propuesto realizar una revisión bibliográfica
seleccionando algunas de las investigaciones, realizadas en los últimos años, que hayan analizado la suplementación con creatina como ayuda ergogénica en el rendimiento deportivo.
Además se realizó una encuesta con el fin de evaluar el consumo de creatina en deportistas recreacionales y amateurs.
Planteo del problema
¿Cuáles son los efectos que produce la creatina en la performance deportiva?
Objetivos
ü Identificar los efectos que produce la ingesta de creatina en la performance deportiva.
ü Evaluar el consumo de creatina en deportistas recreacionales y amateurs que asisten
a gimnasios habilitados de la ciudad de Pergamino, provincia de Buenos Aires, en el mes de
febrero de 2009.
Marco conceptual
1. Creatina
La creatina (Cr), también denominada α metil guandino-acético, no es un aminoácido sino un compuesto orgánico nitrogenado del grupo de las aminas, no esencial, habitual en
la dieta, ya que es obtenida predominantemente a través del consumo de carnes o pescados
que contienen 5 gramos de Cr/Kg.
Además la creatina es sintetizada principalmente en el hígado, páncreas y riñones a
través de los aminoácidos precursores, tales como la arginina, la glicina y la metiotina4.
El organismo humano precisa una cantidad total de 2 gramos de creatina diario, de
los cuales el 50% es sintetizado por el propio organismo mientras que el otro 50% debe ser
aportado a través de la dieta.
Las mayores concentraciones de creatina en el cuerpo humano se encuentran en el
músculo esquelético, con aproximadamente un 95% del contenido total de este compuesto1.
La creatina total contenida en el músculo esquelético se encuentra en dos formas
diferentes: como creatina libre (Cr) cuyo porcentaje es de un 40%, y en su forma fosforilada
o fosfocreatina (PC) en un 60%5.
El 5% restante se reparte por otros tejidos orgánicos como el corazón, los espermatozoides, la retina y el cerebro fundamentalmente1.
102
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
2. Fosfocreatina
2.1 Fosfocreatina y fatiga
La concentración de fosfocreatina parece estar correlacionada con el desarrollo de la
fuerza y puede contribuir a la fatiga.
Las fibras musculares de tipo II poseen mayores niveles iniciales, y mayores tasas de
utilización de fosfocreatina y glucógeno que las fibras de tipo I.
Además la recuperación de fosfocreatina parece ser más lenta en las fibras de tipo II.
La mayor pérdida y recuperación más lenta de la fosfocreatina y el glucógeno en las fibras
de tipo II contribuye, muy probablemente, a la disminución de la fuerza durante ejercicios
de alta intensidad, ya que en este tipo de actividad estas fibras son las que se reclutan predominantemente4.
2.2 Importancia de la resíntesis de fosfocreatina durante la recuperación
Para mantener una producción continua de fuerza, la tasa de resíntesis de fosfocreatina debe aumentar para igualar las mayores demandas de energía requeridas por el músculo
activo, para conservar la potencia. La tasa de resíntesis de fosfocreatina juega un papel muy
importante en la capacidad de fuerza que puede generar un músculo. Durante ejercicios intervalados de alta intensidad, los músculos dependen en gran parte de la fosfocreatina para
la producción de ATP4.
2.3 Alteraciones en el pH y acumulación de lactato
La disminución de la potencia observada durante ejercicios de alta intensidad podría
ser el resultado de la acumulación de ácido láctico en el músculo, el cual disocia el ánion de
lactato y cátion de hidrogeno [H-] disminuyendo, por lo tanto, el pH del músculo.Un menor
pH tiene numerosos efectos sobre los ambientes intra y extracelulares, y ha sido asociado con
la contribución del comienzo de la fatiga por distintos mecanismos.
El aumento de [H-] podría tener una acción directa sobre el aparato contráctil afectado, ya sea el calcio o la miosina adenosintrifosfatasa. La acidosis también podría afectar las
reacciones de equilibrio como la reacción de la creatinfosfocinasa, resultante en una depleción más rápida de fosfocreatina.
La elevación de [H-] y la disminución del pH inhiben las dos enzimas claves involucradas en la glucólisis, la fosforilasa y fosfofructoquinasa.
Todos estos efectos provocados por la acumulación de [H-] y lactato provocan una
disminución en las capacidades del músculo de producir fuerza4.
INVENIO 14 (26) 2011: 101-115
103
Paula Carrillo - María Victoria Gilli
3. Posibles mecanismos por los cuales los niveles elevados de creatina y fosfocreatina en el
músculo podrían actuar para mejorar la performance muscular4.
Disponibilidad de PC
antes del ejercicio.
Dependencia
de la glucólisis
Cr y PC
en el músculo
Nivel de hidratación
celular
Disponibilidad de Cr
antes del ejercicio
Capacidad de
almacenamiento
de Cr y glucógeno
Flujo a través de la
reacción de la CPK
[Lactato]
Performance de las
fibras de tipo II
[H+]
Resíntesis de PC
Masa magra
pH
PC al comienzo de la siguiente
serie de ejercicio
Retraso en la
aparición
de la fatiga
Performance muscular
Intensidad de
entrenamiento
4. Insulina y retención de creatina
Las investigaciones sobre la variabilidad en la retención de creatina han indicado que
el consumo de creatina muscular está influenciado tanto por la cantidad de creatina muscular
previa a la suplementación, como por el incremento en la secreción de insulina estimulado
por la glucosa. Con respecto a esto, los estudios han sugerido que la ingestión de creatina con
grandes cantidades de glucosa y/o combinaciones de glucosa y proteínas puede incrementar
el depósito de creatina6.
5. Posibles efectos secundarios
ü Aumento de peso.
ü Efectos secundarios anecdóticos no probados:
Ø Calambres musculares.
Ø Malestar gastrointestinal.
Ø Deshidratación.
104
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
Ø
Alteraciones renales7.
6. La creatina ¿Se considera doping?
Definitivamente la creatina no figura entre las sustancias prohibidas por el Comité
Olímpico Internacional8.
Material y métodos
1. Diseño metodológico de la revisión bibliográfica
El diseño metodológico con que fue realizada la presente investigación, denominada
revisión bibliográfica, la cual es selectiva y crítica, trata de analizar e integrar la información
esencial de los estudios científicos de investigación. La revisión se basó fundamentalmente
en criterios determinados por la estrategia de búsqueda de la información y posterior selección. La metodología que se utilizó fue la determinación de la calidad de la información
obtenida.
1.1 Estrategias de búsqueda de información
La estrategia de búsqueda de información que se utilizó fue una búsqueda sistemática por Internet en:
- PubliCE Standard. Base de Datos de acceso gratuito de Publicaciones sobre Ciencias del
Ejercicio. (http//:www.sobreentrenamiento.com/PubliCE/Home.asp).
- PubliCE Premium. Publicaciones por suscripción sobre Ciencias del Ejercicio
(http//:www.sobreentrenamiento.com/PubliCE/Home.asp).
- Revista digital. Buenos Aires. (http//:www.efdeportes.com).
- Gatorade Sports Science Institute. (http//:www.gssiweb.org).
La búsqueda comprendió el período entre 1998 a 2010.
1.2 Selección de artículos relevantes
Como resultado de la búsqueda se obtuvieron cincuenta y nueve estudios científicos.
Dentro de los mismos fueron seleccionados veintisiete, mediante una lectura crítica de los
resúmenes, determinando si respondían al planteo del problema de investigación.
Del total de estudios científicos tuvieron que ser excluidos aquellos a los cuales no se
tuvo acceso, no estaban incluidos dentro del período 1998-2008 o no tenían datos relevantes
a la investigación.
1.3 Determinación de la calidad de la información
Los veintisiete artículos seleccionados fueron leídos detallada y críticamente para
evaluar la calidad de la información. Para la evaluación se tuvieron en cuenta los siguientes
componentes:
INVENIO 14 (26) 2011: 101-115
105
Paula Carrillo - María Victoria Gilli
1.3.1 Tipo de estudio: Del total de veintisiete artículos evaluados para la presente
tesina se hallaron: veinte ensayos placebo control con diferentes tipos de diseño, seis revisiones bibliográficas y un artículo científico.
1.3.2 Población estudiada: Se tuvieron en cuenta las características de la población
en estudio.
1.3.3 Diseño del estudio: Para la evaluación del diseño de los estudios se tuvo en
cuenta el tamaño de la muestra, la duración, la metodología utilizada y los resultados obtenidos.
2. Diseño metodológico de la encuesta
2.1 Tipo de estudio: Observacional, descriptivo de tipo transversal.
2.2 Área de estudio: Gimnasios habilitados de la ciudad de Pergamino, provincia de
Buenos Aires.
2.3 Población: Hombres y mujeres que asisten a gimnasios del área de estudio.
2.4 Muestra: Se seleccionó una muestra aleatoria del 20% del total de gimnasios
habilitados del área de estudio. En segundo lugar se realizó una muestra representativa del
20% de la población que asiste a cada gimnasio.
2.5 Criterios de inclusión: Hombres y mujeres entre 18 y 35 años que participaron
en la investigación respondiendo el cuestionario.
2.6 Criterios de exclusión: Aquellos individuos que no participaron en la investigación.
3. Variables en estudio y operacionalización
-
-
Dependiente: Consumo de creatina. Dimensión: nutricional. Indicadores: forma de
administración de la creatina; resultados obtenidos a partir de la suplementación.
Independiente: Hombres y mujeres que asisten a los gimnasios del área en estudio. Dimensión 1: demográfica/deportiva. Indicador: tipo de actividad/deporte.
Dimensión 2: biológica. Indicadores: sexo, edad.
4. Técnica e instrumento de recolección de datos
La encuesta se llevó a cabo mediante un cuestionario semi-estructurado, con modalidad de entrevista personal en forma anónima y confidencial.
5. Tratamiento estadístico
Se utilizó el programa Excel para el diseño y construcción de las bases de datos con
las variables que se incluyeron en los cuestionarios. También se empleó el mismo programa
en la etapa de procesamiento, para la presentación de tablas y gráficos.
La información se presentó en tablas de frecuencia univariadas, bivariadas y en gráficos. Para las variables se calcularon frecuencias, porcentajes y medidas descriptivas para
caracterizar el comportamiento de las mismas.
Los resultados se presentaron de acuerdo al orden del formulario. En el cuerpo del
informe se presentaron los gráficos y las tablas de frecuencia que se adjuntan en el anexo.
106
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
Resultados
1. Análisis e interpretación de resultados de las publicaciones científicas consultadas
1.1 Creatina y rendimiento deportivo
Basándose en la literatura disponible, los autores sugieren que la suplementación
con creatina es una estrategia nutricional segura y efectiva para aumentar el rendimiento
durante el ejercicio. 10.15.18.25
La creatina pareciera proveer los efectos más beneficiosos para el rendimiento deportivo cuando la actividad implica la realización de series repetidas de ejercicio de alta
intensidad y corta duración.10.15.18.25
En otros estudios, la ingesta de creatina incrementa significativamente el ATP y la
fosfocreatina muscular, no altera el lactato sanguíneo, y conduce a una mejora significativa
del rendimiento, especialmente hacia el final de las series de ejercicios, posiblemente por
medio de una resíntesis acelerada de ATP y fosfocreatina durante el período de recuperación
entre las series.11.20
Con respecto a los mecanismos relacionados a la mejora del rendimiento, una elevada concentración pre-ejercicio de creatina constituye un “estímulo” inicial para la mejora
del rendimiento, seguido por una repleción más eficiente de las reservas de fosfocreatina
durante los intervalos de ejercicio.20
Por otro lado en un estudio realizado por Levesque y cols, el aumento de fosfocreatina y creatina total a través de la suplementación con creatina, falla en mejorar el rendimiento durante esprints repetidos de ciclismo sin recuperación pasiva o completa entre los
esprints. No puede ser excluida la posibilidad de que la falta de efecto ergogénico después
de la suplementación con creatina en el presente estudio, se debe al protocolo de ejercicio
diferente en el cual se usa actividad intensa entre los esprints en vez de actividad de baja
intensidad o ninguna actividad, tal como ha sido usado por otros estudios de ejercicio de
esprints, pero tales condiciones no existen en las competiciones de ciclismo.26
Según Syrotuik y col, existe un perfil fisiológico de sujetos respondedores y no respondedores a la suplementación con creatina, que puede ser útil parcialmente para explicar
los hallazgos de rendimiento equívocos reportados en la literatura. El grupo respondedor posee un perfil biológico de bajos niveles iniciales de creatina y fosfocreatina, mayor porcentaje
de fibras tipo II, una mayor área de sección trasversal de las fibras musculares pre-carga y
mayor masa magra, mientras que el grupo no respondedor posee niveles de creatina y fosfocreatina más altos, menos fibras musculares tipo II, menor área de sección trasversal de fibras
musculares pre-carga y menor masa magra.16
No todos los estudios incluidos reportan beneficios ergogénicos, posiblemente debido a diferencias intra-sujeto en la respuesta a la suplementación con creatina, la duración
de la suplementación, el criterio de evaluación de los ejercicios y/o la duración de las pausas
entre las series repetidas de ejercicios.10.15
1.2 Creatina en los deportes
Los deportes tales como el fútbol americano13, el fútbol, el squash, están más comúnmente involucrados en la utilización de este suplemento.18 Sin embargo, en el caso de natación la
INVENIO 14 (26) 2011: 101-115
107
Paula Carrillo - María Victoria Gilli
suplementación con creatina no mejora el rendimiento durante la realización de un único esprint,
pero tendría potenciales beneficios sobre el rendimiento en series repetidas; a su vez como resultado de las altas demandas energéticas de los estilos pecho y mariposa, los potenciales beneficios
asociados con la suplementación con creatina sobre el rendimiento en natación, podrían ser mayores en estos estilos cuando se los compara con el comúnmente examinado estilo libre.24
En el caso del voleibol se presenta un estudio en jugadoras universitarias y los hallazgos del mismo sugieren que la suplementación con creatina conjuntamente con un buen
programa de acondicionamiento, puede ser una forma efectiva de mejorar el rendimiento
atlético (en la fuerza máxima y salto vertical).17
En un estudio cuyo diseño es doble ciego, se establece que en carreras múltiples, el
uso de monohidrato de creatina no provee beneficios respecto del rendimiento en esprints, ya
que no se observan diferencias significativas, entre el grupo control y el grupo experimental,
en las mediciones de los tiempos en los esprints múltiples, en el tiempo medio, en la fatiga o
en la concentración de lactato post test.21
En cuanto a la velocidad de carrera, tratada en otro estudio con diseño doble ciego, los
resultados indican que tampoco hubo efectos estadísticamente significativos sobre la velocidad
entre el grupo control y el grupo experimental. Sin embargo, la falta de efectos positivos en este
estudio puede deberse a varios factores, el número de repeticiones en el trabajo puede haber sido
demasiado escaso para llevar a un vaciamiento acumulativo de fosfocreatina; los dos minutos de
pausa pudieron haber sido suficientes para completar la regeneración de fosfocreatina, aun sin
una suplementación oral con creatina; los sujetos podrían haber “no reaccionado” al tratamiento.9
Izquierdo y cols, estudian el efecto de la suplementación con creatina en jugadores de
balonmano, ya que en este deporte se producen fases anaeróbicas de muy corta duración (uno
a tres segundos) y de gran intensidad, que suelen ser decisivas en la obtención del triunfo
(desmarque, lanzamiento o salto), intercaladas con fases aeróbicas de recuperación. Los resultados demuestran que si bien existen efectos beneficiosos sobre el rendimiento deportivo,
la suplementación con creatina no mejora la fuerza máxima de la extremidad superior ni la
resistencia en el test de carrera.23
1.3 Terapéutica de la suplementación con creatina
Se emplean métricas de dosificación del suplemento en función de la masa corporal;
se recomienda 0,3 gramos de creatina por kilogramo de peso.
El nivel de entrenamiento puede tener cierto impacto sobre la absorción de creatina
durante la fase de carga (consiste en la toma de 20 a 25 gr de creatina por un espacio de 5 a
7 días), ya que los individuos altamente entrenados pueden no necesitar períodos de carga,
debido a que los niveles intramusculares ya están elevados, pero sí requieren la fase de mantenimiento (consiste en la toma de 2 a 5 gr de creatina dependiendo del sujeto y la actividad
física que realice).18.25
Si se desea optimizar el rendimiento, es necesario valorar las características de las
personas, nivel de entrenamiento, edad y fundamentalmente la especialidad deportiva de
modo de estimar si es realmente necesario realizar una estrategia de suplementación y especialmente determinar la forma más adecuada para cada caso.18.25
Considerando que el pico de creatina plasmático se produce aproximadamente una
hora después de su ingesta, el momento de su consumo podrá determinarse en función del
tipo de entrenamiento:
108
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
1. Para entrenamientos de fuerza cortos e intensos, durante los primeros instantes del
entrenamiento, junto con una bebida deportiva con 6 a 8% de hidratos de carbono.
2. Para entrenamientos más largos, de resistencia de fuerza o velocidad específica
aplicada a una actividad deportiva durante el mismo entrenamiento, también junto con una
bebida deportiva con un 6 a 8% de hidratos de carbono.
3. Para entrenamientos de resistencia con gran componente aeróbico (intensidad moderada, y mayor volumen) inmediatamente después, aunque si el objetivo es favorecer la
velocidad de transferencia energética intracelular durante el desarrollo de la actividad, podría
ingerirse 60 a 30 minutos antes.25
Algunos estudios sugieren que la adición de hidratos de carbono a la suplementación
de creatina, puede aumentar los efectos de la misma.27.6 Las investigaciones sobre la variabilidad en la retención de creatina indican que el consumo de creatina muscular está influenciado
tanto por la cantidad de creatina muscular previa a la suplementación, como por el incremento en la secreción de insulina estimulado por la glucosa.6
1.4 Efectos de la creatina sobre la composición corporal
En varios estudios los resultados indican que la suplementación con creatina eleva la
masa corporal total, 11.12.13.17.19.21.22.23 la masa magra 11.14.17.22 y en cuanto a los cambios de masa
grasa existen controversias.
Con respecto a esta última, en dos estudios revisados no se hallan cambios, 17.23 mientras que en otros, debido a la suplementación con creatina se reduce.21.22
Según Stephen y cols, el consumo de creatina produce un incremento significativo
sobre la masa corporal, sin reducir el porcentaje de grasa corporal y no produce un incremento de la masa magra mayor que el provocado por el entrenamiento de la fuerza por sí sola.19
1.5 Efectos adversos a la suplementación con creatina
No existe evidencia contundente que respalde otros efectos adversos, que no sea la
ganancia de peso.10.18 Los cambios tempranos observados en el peso corporal luego de la
ingesta de creatina, pueden explicarse probablemente por el incremento en el agua corporal,
especialmente en los compartimentos intracelulares musculares. Los autores han especulado
que la razón del incremento en el agua corporal es el incremento en la carga osmótica, asociado con el incremento en la concentración de creatina dentro de la célula.18
Aparentemente, la mayoría de los reportes acerca de los efectos adversos de la suplementación con creatina tales como deshidratación, calambres musculares, estrés gastrointestinal, alteración de la función renal, hepática, entre otros, han sido anecdóticos. Cuando
los estudios emplean diseños de investigación ciegos, que incluyen grupo control, no parece
haber un hallazgo consistente de cualquier efecto adverso que pueda provocar la suplementación con creatina en individuos normales y saludables.18
2. Resultados de la encuesta de consumo
A continuación se detallan los resultados más relevantes de la encuesta de consumo
llevada a cabo en la ciudad de Pergamino, provincia de Buenos Aires.
Dado que el objetivo del estudio es evaluar aspectos relacionados con el consumo de
INVENIO 14 (26) 2011: 101-115
109
Paula Carrillo - María Victoria Gilli
creatina, sin importar si es actual o pasado, se unieron las respuestas de los encuestados para
calcular el consumo total de esta sustancia. Al tener en cuenta este aspecto, el porcentaje de
personas que han consumido alguna vez creatina alcanza el 47,9%. (Gráfico 1)
Gráfico 1: Consumo de creatina por parte de las personas encuestadas.
El consumo de creatina está significativamente asociado al sexo de las personas. El
70% de los hombres encuestados consumió creatina alguna vez, mientras que sólo el 12,8%
de las mujeres lo hizo (Gráfico 2).
Gráfico 2: Consumo de creatina por parte de las personas encuestadas, según sexo.
El consumo de creatina también está significativamente asociado a la edad de las
personas. El 75% de las personas mayores de 30 años consumió creatina alguna vez, mientras
que entre las personas que tienen entre 22 y 29 años lo hizo sólo el 36,7% y de los menores
de 21 años el 45,5% (Gráfico3).
Gráfico 3: Consumo de creatina por parte de las personas encuestadas, según grupo de edad.
110
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
El 44,8% de las personas que consumen o consumieron creatina, manifiestan hacerlo o
haberlo hecho, con el objetivo de aumentar su masa muscular. El 36,2% con el objetivo de aumentar
su rendimiento y aproximadamente el 20% para lograr un aumento en ambos sentidos (Gráfico 4).
Gráfico 4: Objetivo del consumo de creatina por parte de las personas encuestadas que consumen o alguna vez consumieron.
En cuanto a la forma de administración de la creatina, el 48,3% de los encuestados manifiestan que consumen o consumieron una carga inicial y mantenimiento. Aproximadamente el
45% sólo una dosis de mantenimiento y el 7% otra dosis diferente a las mencionadas (Gráfico 5).
Gráfico 5: Forma de administración de la creatina por parte de las personas encuestadas
que consumen o alguna vez consumieron.
Con respecto al momento de administración de la creatina, aproximadamente el 45%
de los encuestados manifiesta que la consume o consumía antes y después de entrenar. Cerca
del 26%, antes de entrenar y el 29,3% después del entrenamiento (Gráfico 6).
Gráfico 6: Momento de administración de la creatina por parte de las personas encuestadas
que consumen o alguna vez consumieron.
INVENIO 14 (26) 2011: 101-115
111
Paula Carrillo - María Victoria Gilli
El 63,8% de los encuestados que consumen o consumieron creatina alguna vez, manifiestan hacerlo o haberlo hecho acompañada de hidratos de carbono y el resto sola. Ninguno de ellos manifiesta consumirla o haberla consumido acompañada de algún otro suplemento o alimento (Gráfico 7).
Gráfico 7: Forma de consumo de la creatina por parte de las personas encuestadas que consumen o alguna vez consumieron.
Aproximadamente el 85% de las personas que consumen o consumieron creatina obtienen u obtuvieron los resultados esperados de la administración de esta sustancia (Gráfico 8).
Gráfico 8: Obtención de los resultados esperados del consumo de creatina por parte de las
personas encuestadas que consumen o alguna vez consumieron.
El 34,5% de las personas que consumen o que han consumido creatina alguna vez,
manifiesta padecer o haber padecido algún efecto secundario, mayoritariamente aumento de
peso, y una sola padeció alguna vez, calambres musculares (Gráfico 9). Ninguna de las mujeres encuestadas padece o padeció efectos secundarios de la toma de creatina.
112
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
Gráfico 9: Efectos secundarios del consumo de creatina en las personas encuestadas que
consumen o alguna vez consumieron.
Conclusiones:
La suplementación con creatina es aconsejable para el rendimiento deportivo cuando
la actividad implica la realización de series repetidas de ejercicio de alta intensidad y corta
duración. Numerosas investigaciones avalan que atletas que se desempeñan en deportes que
son similares a este tipo de actividad, obtendrán el mayor beneficio de la suplementación con
creatina. Algunos estudios sugieren que la adición de hidratos de carbono a la suplementación de la misma puede aumentar los efectos de la creatina. La ganancia de peso es otro efecto que provoca la suplementación con creatina, respaldado por las investigaciones revisadas.
Este efecto reportado, está asociado a un aumento de retención de fluidos en el sarcoplasma.
A partir del análisis de los datos obtenidos de la encuesta de consumo; la población
que más consume creatina son los hombres, mayores de 30 años, con el objetivo de aumentar
su masa muscular. La forma de administración más utilizada es carga inicial y mantenimiento; el momento de la suplementación, antes y después de entrenar; y el consumo se realiza
mayoritariamente con el agregado de hidratos de carbono.
El 85% de la población que consume o consumió alguna vez creatina, obtuvo los
resultados esperados; y el 32,8% reportó un aumento de peso como efecto secundario a la
suplementación.
Consideramos necesario efectuar investigaciones que demuestren los efectos que
puede producir la suplementación crónica de creatina, ya sea en deportistas recreacionales
como de elite. Así como también continuar la línea de investigación acerca de la seguridad
y eficacia de las formas variadas de creatina que están siendo comercializadas hoy en día.
Recibido: 28/03/10. Aceptado: 03/02/11
Bibliografía
1. Gonzáles Boto R, García López D, Herrero Alonso J. A. “La suplementación con creatina en el deporte y su
relación con el rendimiento deportivo”. Revista Internacional de Medicina y Ciencias de la Actividad Física
y el Deporte. Volumen 3 (12) p.p. 242-259. Diciembre, 2003. En: http://cdeporte.rediris.es/revista/revista12/
artcreatina.htm. Citado: 15/09/08.
INVENIO 14 (26) 2011: 101-115
113
Paula Carrillo - María Victoria Gilli
2. Prieto, RG. “Efectos de los suplementos de creatina sobre el rendimiento físico”. Revista Digital. Buenos Aires.
Año 10. N° 69. Febrero, 2004. En: http//:www.efdeportes.com. Citado: 27/10/08.
3. Dauval Borges, C.J; Gonzalvo, A.A. “Creatina: ¿suplementación natural o dopaje?”. Disponible en: http://
www.efdeportes. com. Citado: 12/09/2008.
4. Volek, J.S.; Kraemer, W. J. “Suplementación con creatina: su efecto sobre la performance muscular humana y la
composición corporal”. Cetro de Medicina Deportiva, Universidad Estatal de Pennsylvania, University Park,
Pennsylvania, USA. 1996. En: Proceedings, Resúmenes del Simposio Internacional de Nutrición e hidratación deportiva para la actividad física, la salud y el deporte de competencia. Biosistem, Servicio Educativo.
Rosario, Argentina. 1997.
5. Olmos Hermosilla, A. “Monohidrato de creatina, rendimiento y fútbol”. Revista digital. Año 8. N° 49. Buenos
Aires. Junio 2002. En: http//:www.efdeportes.com. Citado: 25/10/08.
6. Greenwood, M; Kreider, R; Earnest, C; Rasmussen, C; Almada, A. “Differences in creatine retention among
three nutritional formulations of oral creatine supplementation.” JEPonline; 6(2): 37-43, 2003.
7. Santoja Gómez, R; López Villanueva, N. “Enciclopedia de Nutrición” (guía práctica). Monografías. Capítulo
2, pp. 125-133. Editorial Rafael Santoja. Madrid, España. 2002. 2° edición.
8. Del Castillo, V. “Monohidrato de creatina ¿un suplemento para todos?”. Revista digital. Año 5. N° 18. Buenos
Aires. Febrero 2000. En: http//:www.efdeportes.com. Citado: 01/04/09.
9. Redondo, D.R; Dowling, E.A; Graham, B.L; Almada, A.L y Williams, M.H. “Efecto de la suplementación
oral con monohidratos de creatina sobre la velocidad de carrera”. Revista de Actualización en Ciencias del
Deporte Nº17, 1998.
10. Kreider, R.B. “Creatine supplementation: Analysis of ergogenic value, medical safety, and concerns”. J. E.
Ponline Vol. 1, No. 1, 1998. 11. Santos, M.G.; López de Viñaspre, P.; González de Suso, J. M.; Moreno, A.; Alonso, J; Cabañas, M.; Pons,
V.; Porta, J. Y.; ARÚS, C. “Efecto de la suplementación oral con monohidrato de creatina en el metabolismo
energético muscular de ciclistas.” Revista digital. Buenos Aires. Año 7. N° 39. En: http://www.efdeportes.
com. Fecha de publicación: 08/2001.
12. Kern, M; Podewils, L.J; Vukovich, M., Buono, M. J. “Physiological Response to Exercise in the Heat following Creatine Supplementation”. J. E. Ponline; 4(2): 18-27, 2001.
13. Bemben, M.G; Bemben, D.A; Floftiss, D.D.; Knehans, A.W. “Creatine Suplementation during Resistance
Training in Collage Football Athletes”. Med Sci Sports Exerc, Vol. 33 No. 10, pp. 1667-1673, 2001.
14. Havenetidis, K; Matsouka, O; Cooke, C.B; Theodorou, A. “La Utilización de Diferentes Regímenes de
Suplementación con Creatina Sobre la Capacidad de Esprint en Ciclismo”. Journal of Sports Science and
Medicine 2, 88-97, 2003.
15. Greenwood, M; Kreider, R; Earnest, C; Rasmussen, C; Almada, A. “Differences in creatine retention among
three nutritional formulations of oral creatine supplementation”. JEPonline; 6(2): 37-43, 2003.
16. Bird, S.P. “Suplementación con Creatina y Rendimiento durante el Ejercicio: Una Breve Revisión”. Journal
of Sports Science and Medicine 2, 123-132, 2003.
17. Syrotuik, D.G.; Gordon J. B. “Acute Creatine Monohydrate Supplementation: A Descriptive Physiological
Profile of Responders vs. Nonresponders”. J. Strength Cond. Res.; 18 (3), 610-617, 2004.
18. Jon Yeansub, L. “Efectos de la Suplementación con Creatina sobre la Composición Corporal, la Fuerza y la
Potencia Muscular”. PubliCE Standard. Pid: 501, 2005.
19. Bemben, M.G; Lamont, H. “Creatine Supplementation and Exercise Performance. Recent Findings”. Sports
Med. 35 (2): 107-125, 2005.
20. Ball, S. D.; Bowen-Thwaits, J.; Swan, P. D. “Oral Creatine Supplementation Does not Improve Body Composition in Recreationally Active Men during Strength Training”. JEPonline; 7 (6): 9-15, 2005.
21. Havenetidis, K. “Assestment of the Ergogenic Properties of Creatine using an Intermittent Exercise Protocol”.
JEPonline; 8 (1): 26-33, 2005.
22. Glaister, M.; Lockey, R. A.; Abraham, C. S.; Staerck, A.; Goodwin, J.E.; Mcinnes, G. “Creatine supplementation and multiple sprint running performance”. J. Strength Cond. Res., 20 (2): 273–277, 2006.
23. Rogers, M.E.; Bohlken, R. M.; Beets, M.W.; Hammer, S.B.; Ziegenfuss, T. N.; Sarabon, N. “Effects of Creatine, Ginseng, and Astragalus Supplementation on Strength, Body Composition, Mood, and Blood Lipids
during Strength-Training in older Adults”. Journal of Sports Science and Medicine, 5, 60-69, 2006.
24. Izquierdo, M.; Ibañez, J.; González Badillo, J.J.; Gorostiaga, E.M. “Efectos de la Suplementación con Creatina sobre la Potencia Muscular, la Resistencia y la Velocidad en Jugadores de Balonmano”. PubliCE Standard. Pid: 751, 2006.
25. Hopwood, M.J.; Graham, K; Rooney, K.B. “Creatine Supplementation and Swim Performance: A Brief Review”. Journal of Sports Science and Medicine; 5, 10-24, 2006.
114
INVENIO 14 (26) 2011: 101-115
Los efectos que produce la creatina en la performance deportiva
26. Ayllón, N; Fernando, J. “Utilización del Monohidrato de Creatina como Suplemento Dietético”. PubliCE
Standard. Pid: 756, 2007.
27. Levesque, D.G.; Kenefick, R.W; Quinn, T. J. “Creatine Supplementation: Impact on Cycling Sprint Performance”. JepOnline; 10 (4): 17–28, 2007.
28. Kern, M.; Podewils, L.J.; Vukovich, M.; Buono, M.J. “Physiological Response to Exercise in the Heat following Creatine Supplementation”. JEPonline; 4(2): 18-27, 2001.
29. Schoch, Ryan D. Willoughby, Darryn S. Greenwood, Mike. “La Regulación y Expresión del Transportador
de Creatina”: Una Breve Revisión de la Suplementación con Creatina en Humanos y Animales (Resumen).
PubliCE Premium. 17/09/2009. Pid: 1173.
30. Buford, Thomas W. Kreider, R B. Stout, Jeffrey R. Greenwood, Mike. Campbell, Bill. Spano, Marie. Ziegenfuss, Tim N. Lopez, Hector. Landis, Jamie. Antonio, Jose. “Declaración de Posición de la Sociedad Internacional de Nutrición Deportiva”: Suplementación con Creatina y Ejercicio (Resumen). PubliCE Premium.
03/09/2009. Pid: 1169.
31. Flanagan, Eamonn P.. Creatine Supplementation: “Implications for the Competitive Weightlifter. Strength and
Conditioning Journal”; 29(2):60–66. PubliCE Standard. 22/05/2009. Pid: 1131.
32.Rosene, John , Matthews, Tracey; Ryan,Christine ; Belmore, Keith; Bergsten, Alisa; Blaisdell, Jill; Gaylord,
James; Love, Rebecca; Marrone,Michael;Ward, Kristine and Wilson, Eric “Short and longer-term effects
of creatine supplementation on exercise induced muscle damage”. Journal of Sports Science and Medicine
(2009) 8, 89 – 96.
33. Souza, Renato A. , Miranda, Humberto; Murilo, Xavier, Lazo-Osorio, Erosrigo A. ; Gouvea, Hélio A.;
Cogo,José C.; Viera, Rodolfo;and Ribeiro,Wellington . “Effects of hight-doseEcreatine supplementation on
kidney and liver responses in sedentary and exercised rats”. Journal of Sports Science and Medicine (2009)
8, 672 – 681.
34. Yildiz, Ahmet; Ercan, Ozdemir; Sefa Gulturk and Sena Erdal. “The effects of creatine long- term supplementation on muscle morphology and swimming performance in rats”. Journal of Sports Science and Medicine
(2009) 8, 516 - 522
35. Campbell, . Bill I. Wilborn, Colin D. and La Bounty, Paul M.. Supplements for Strength-Power Athletes.
Strength & Conditioning Journal, 32(1):93-100 (2010).
INVENIO 14 (26) 2011: 101-115
115
116
Dehidrocongelación de frutas:
estudio de los parámetros de calidad
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda*1
Resumen: Con la intención de mejorar la calidad sensorial de productos frutihortícolas durante su conservación, y tener la posibilidad de combinar y aplicar otros
procesos como la congelación, se estudió el uso de la Deshidratación Osmótica como
pretratamiento para prolongar la vida útil en diferentes matrices vegetales. Para ello,
en una primera etapa, se examinaron los efectos de la concentración de la solución
osmodeshidratante en tres frutas con diferentes composiciones, estructuras celulares
y características sensoriales, sobre la cinética de transferencia de materia. En la faz
experimental, se utilizaron muestras de peras de la variedad Packham´s Triumph, kiwis
de la variedad Hayward y melones de la variedad Honey Dew. Se realizaron deshidrataciones bajo distintas concentraciones de solución (soluciones de sacarosa de 40 y
60°Brix) y tiempo de contacto y luego se congelaron muestras con diferentes tiempos
de deshidratación. Además se analizaron las consecuencias producidas por el proceso
completo de dehidrocongelación sobre la calidad sensorial tomando como parámetros
el color, la textura y exudado producido en las tres frutas deshidratadas osmóticamente
y posteriormente congeladas y descongeladas. La deshidratación osmótica aplicada en
una etapa previa a la congelación tuvo consecuencias favorables en lo que respecta al
estudio de calidad de las frutas y además el efecto beneficioso de disminuir el tiempo
necesario para la congelación en las muestras estudiadas. El pretratamiento osmótico
podría ser una importante herramienta, principalmente en lo que respecta al desarrollo
y aplicación en frutas estacionales, introduciendo un valor agregado a las mismas en el
mercado con propiedades funcionales para sistemas alimenticios específicos.
Palabras clave: dehidrocongelación - deshidratación osmótica - calidad de frutas.
ABSTRACT: Dehydrofreezing of fruit: study on quality parameters
Osmotic dehydrofreezing as pretreatment to extend shelf life in different vegetable
matrices was studied with the purpose of improving sensory quality of fruit and vegetables during their conservation, as well as of assessing the possibility of combining
and applying other processes such as freezing. The effects of the osmotic dehydration
solution on the transfer kinetics of matter were studied in three kinds of fruit with different compositions, cell structures, and sensory characteristics. Samples of Packham’s Triumph pears, Hayward kiwis and Honey Dew melons were used during the experimental
stage. Dehydration was carried out under different solution concentrations (sucrose solutions of 40º and 60º Brix) and exposure times. Then, samples with different dehydration times were frozen. Consequences of the whole dehydrofreezing process on sensory
quality based upon parameters such as color, texture and exudate were examined in the
* Melina Bianchi es Ingeniera en Tecnología de los Alimentos, docente de la carrera ITA de UCEL. Ana
Guarnaschelli y Pablo Milisenda son graduados de la carrera de Ingeniería en Tecnología de los Alimentos en
UCEL. Los autores fueron investigadores del Proyecto “Modelado y Simulación de procesos de congelación
y dehidrocongelación de frutas, ALI 113’’, bajo la dirección del Dr. Rodolfo Mascheroni (CIDCA-CONICET,
UNLP). E-mail: mbianchi@ucel.edu.ar
INVENIO 14 (26) 2011: 117-132
117
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
three fruits submitted to osmotic dehydration, followed by freezing and thawing. It was
found that osmotic dehydration applied before the freezing stage had favorable effects
on fruit quality plus the advantage of reducing the time needed to freeze the samples
under study. Osmotic pretreatment might be a useful added value mainly for seasonal
fruit development and application with functional properties for specific food systems.
Key words: dehydrofreezing - osmotic dehydration - fruit quality
1- Introducción
El incremento en las preferencias del consumidor moderno hacia frutas y vegetales mínimamente procesados, tanto para el consumo directo como para ingredientes en la
elaboración de otros alimentos, ha llevado al desarrollo de tecnologías alternativas con el
objetivo de minimizar los inconvenientes de los procesos tradicionales (por ejemplo durante
la congelación se producen cambios químicos y físicos que afectan las características tisulares y nutricionales de estos alimentos, además de tener un importante consumo energético)
(Alzamora y col., 1997).
La deshidratación osmótica (DO) es una tecnología ampliamente usada para la extracción parcial de agua en tejidos hortifrutícolas, en la cual el alimento está en contacto
con una solución de baja actividad de agua (siendo en la mayoría de los casos soluciones
concentradas de sales y/o azúcares), estableciéndose 2 mecanismos de transferencia de masa:
i) el agua se transfiere desde el producto hacia la solución, frecuentemente acompañada por
sustancias naturales (azúcares, vitaminas, pigmentos, componentes del sabor) y ii) en la dirección opuesta, el soluto se transfiere desde la solución hacia el alimento (Spiazzi y Mascheroni, 1997; Agnelli y col., 2005). Como consecuencia de este intercambio el producto pierde
peso y se encoge, y se generan cambios en las propiedades ópticas y mecánicas, dependiendo
de las condiciones del proceso y las características de cada alimento a deshidratar (Torregiani, 1995; Talens y col., 2001).
Sin embargo, el producto parcialmente deshidratado no es microbiológicamente estable y además es más susceptible al deterioro químico, por lo que se requiere un procesamiento posterior para prolongar su vida útil. Varios tratamientos fueron estudiados hasta el
momento: congelación y distintas formas de secado convectivo son los más típicos.
La deshidratación parcial ha sido tradicionalmente realizada con aire caliente, pero
durante este proceso ocurren reacciones de deterioro muy importantes, principalmente una
notoria pérdida de textura, cambios de sabor y de color. La DO, en cambio, posibilita la disminución del contenido acuoso en condiciones de trabajo suaves haciendo que se limiten en
gran medida las reacciones de deterioro. Por realizarse en un medio acuoso, las reacciones de
oxidación responsables de pérdidas de color y sabor, se reducen. Por otra parte, la incorporación de sólidos que ocurre durante la DO permite mejorar la textura y realza los aromas y
sabores. Además, provoca un descenso en el punto crioscópico del alimento, lo que debería
llevar a una mejor nucleación durante la congelación con la formación de pequeños cristales
de hielo y por lo tanto, aminorar la pérdida de textura que ocurre al descongelar el alimento
congelado, por rotura de la estructura celular (Garrote y Bertone, 1989; Forni y col., 1990;
Torregiani, 1993; Robbers y col, 1997; Spiazzi y col., 1998, Marani y col., 2007).
La dehidrocongelación, que consiste en combinar el proceso de deshidratación osmótica seguido de una congelación, se presenta como una alternativa tecnológica de inte-
118
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
rés para obtener productos congelados de buena calidad. La etapa previa de deshidratación
osmótica busca contrarrestar el efecto dañino de la congelación, inclusive en tejidos muy
delicados como las frutas y los vegetales (Agnelli y col., 2005; Marani y col., 2007). Este
aspecto interesa especialmente en algunos frutos, por ejemplo: kiwi, melón, manzana, pera,
frutilla y durazno, todos productos particularmente sujetos a daño por congelación.
Desde el punto de vista económico, la necesidad de frío se ve reducida proporcionalmente a la menor cantidad de hielo formado y la disminución de volumen conduce a un
menor costo de manejo, conservación y transporte.
En cuanto a las aplicaciones, las más interesantes resultan la preparación de ensalada
de frutas congelada y como ingredientes para la elaboración de helados, yogurt y pastelería
(habiendo en esta última una doble ventaja: buena calidad organoléptica y un reducido contenido de agua que limita el riesgo de impregnación de la masa) (Monzini y Maltini, 1986).
En el presente trabajo, se examinaron distintos aspectos vinculados a los parámetros
de calidad en las etapas de Deshidratación Osmótica y la posterior congelación de distintos
productos frutihortícolas
Los objetivos establecidos se detallan a continuación.
∙ Investigar sobre un tema de interés nacional y regional (aprovechamiento de frutas
para su valorización en productos elaborados).
∙ Determinar índices de calidad: color, textura y exudado, tanto para la etapa de deshidratación osmótica como para su posterior congelación y evaluar la influencia de dichos
parámetros en el proceso de dehidrocongelación.
En el presente trabajo se resume, pues, parte de la investigación enmarcada en el Proyecto ALI 113 donde los estudios y determinaciones experimentales realizadas por el Grupo
de Investigación contemplaron parámetros cinéticos, de calidad y desarrollos de modelos
matemáticos para predecir el comportamiento de diversas frutas. En este artículo se publican
los resultados de los parámetros de calidad en distintas matrices vegetales
2- Materiales y métodos
La sede donde se llevó a cabo la parte experimental del presente proyecto de investigación fue el Centro de Investigación y Desarrollo en Criotecnología de Alimentos (CIDCA),
perteneciente a la Universidad Nacional de La Plata y CONICET, situado en la ciudad de La
Plata, Argentina. El CIDCA cuenta con laboratorios y planta piloto que están dotados del
equipamiento y material adecuado que permitieron el normal desarrollo del proyecto.
2.1 Materiales
2.1.1 Materia prima
Se utilizaron 3 frutas de diferentes características físico químicas y estructurales:
peras de la variedad Packham´s Triumph, kiwis de la variedad Hayward y melones de la variedad Honey Dew, compradas en la ciudad de La Plata, Argentina, usando como criterio de
selección: nivel de maduración, intensidad de color, tamaño y forma similares, con el fin de
obtener muestras relativamente homogéneas en cada tipo de fruta.
INVENIO 14 (26) 2011: 117-132
119
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
2.1.2 Agente deshidratante
Se utilizó sacarosa comercial (Ledesma, Buenos Aires, Argentina) para la preparación de las soluciones hipertónicas. Las concentraciones de sacarosa fueron de 40 y 60ºBrix.
2.2 Métodos
2.2.1 Deshidratación osmótica
Las muestras para cada tiempo de deshidratación consistieron en las siguientes frutas: peras: 5 rodajas de 1 cm de espesor, kiwis: 6 rodajas de 1 cm de espesor y melones: 20
esferas de 2,6 cm de diámetro.
Las frutas fueron seleccionadas y lavadas en agua corriente para remoción de suciedad superficial. Luego fueron peladas manualmente y cortadas, acorde a cada geometría. Las
muestras fueron pesadas y colocadas en vasos de precipitado con la solución hipertónica a
30 ºC, realizando ensayos en ambas concentraciones. La relación muestra:solución utilizada
fue de 1:10 (p/p) para garantizar una concentración de solutos prácticamente constante durante todo el proceso.
Los ensayos de deshidratación osmótica fueron realizados en un baño termostático,
marca FERCA, modelo TT 400 con agitación lineal (110 ciclos por minuto), durante 72 horas
con extracción de muestras en tiempos sucesivos correspondientes a: 0, 1, 2, 4, 8, 16, 24 y 72
horas de proceso. Luego del tiempo de inmersión requerido, las muestras fueron drenadas,
colocadas sobre papel absorbente para remoción de solución en exceso y pesadas nuevamente para la determinación de pérdida de peso en relación a la masa inicial del producto.
2.2.2 Congelación
Luego del proceso de deshidratación osmótica, las muestras fueron congeladas por
duplicado en un congelador convectivo de bandejas con flujo de aire horizontal (-35 ºC
aproximadamente en el evaporador). El progreso de la congelación fue monitoreado a través
de mediciones de temperaturas con termocuplas de cobre-constantan situadas horizontalmente, hasta alcanzar una temperatura en el producto de -18ºC.
2.2.3 Exudado
Para evaluar el efecto del pretratamiento osmótico sobre el exudado, se colocaron
piezas de fruta congeladas sobre un papel absorbente dentro de recipientes herméticos. Tanto
el producto congelado como el papel fueron previamente pesados. Luego se dejó descongelar
en un ambiente a 20 ºC, hasta pesada constante (aproximadamente 2 horas).
Pasado este período, se pesó nuevamente el papel y se calculó el exudado en base
seca acorde a la siguiente ecuación 1:
Wt − W0
Ex (%) =
* 100
Wm * TS
(1)
120
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
Donde: W0 = peso del papel absorbente seco (g); Wt = peso del papel absorbente a
tiempo t (g); Wm = peso de la muestra (g); TS = fracción de sólidos totales de la muestra.
2.2.4 Color
Las coordenadas cromáticas fueron medidas en un colorímetro Minolta R-300, donde se determinó el color de cada muestra deshidratada y luego descongelada comparando
cada corrida con la muestra fresca como referencia.
Con el fin de cuantificar los cambios globales de color, se calculó la diferencia de
color total, ∆E*, en las muestras deshidratadas y descongeladas con respecto a las frescas de
referencia, quedando definida mediante la expresión 2:
(2)
∆E* = ∆a *2 +∆b*2 + ∆L*2
(3)
Los valores de diferencias correspondientes a ∆L*, ∆a* y ∆b* fueron obtenidos acorde a las siguientes expresiones:
∆L* = L*t - L*0
∆a* = a*t - a*0
∆b* = b*t - b*0
Donde el subíndice t representa el valor de L*, a* y b* de la muestra a cada tiempo de deshidratación y 0 de la muestra fresca tomada como referencia.
2.2.5 Textura
Las mediciones de textura fueron realizadas empleando un texturómetro Universal
Testing Machine, modelo TATX2i, marca Stable Micro Systems. Se realizó un ensayo de
compresión uniaxial a altas deformaciones de la muestra, utilizando una celda de compresión
de 50 kg, una sonda metálica con plato de compresión de 75 mm de diámetro, a una velocidad
de compresión de 0,5 mm/s y hasta 40% de deformación de la muestra.
En este caso la primera discontinuidad en el gráfico Fuerza vs. Tiempo fue tomada
para caracterizar la resistencia mecánica de las muestras.
3. Resultados y discusión
2.2
Estudio de los parámetros de calidad
2.2.1
Determinación de color
Los resultados de las mediciones de color (L*, a*, b* y ΔE) se exhiben en las Figuras
1, 2 y 3.
La evaluación de la influencia de este parámetro sobre el proceso de la deshidratación, y posterior congelación-descongelación, es analizada en cada fruta a continuación para
cada tiempo de inmersión y en ambas concentraciones de solución hipertónica.
INVENIO 14 (26) 2011: 117-132
121
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
Figura 1. Parámetros de color L*a*b* determinados sobre discos de pera deshidratados y congelados-descongelados con soluciones de sacarosa 40 (color fucsia) y 60°Brix (color celeste)
122
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
Figura 2. Parámetros de color L*a*b* determinados sobre discos de kiwi deshidratados y congelados-descongelados con soluciones de sacarosa de 40 (color fucsia) y 60°Brix (color celeste)
INVENIO 14 (26) 2011: 117-132
123
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
Figura 3. Parámetros de color L*a*b* determinados sobre esferas de melón deshidratadas y congeladas-descongeladas con soluciones de sacarosa de 40 (color fucsia) y 60°Brix (color celeste).
124
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
En cuanto a la variación del color total de la pera (Figura 1), no se observan cambios
significativos durante el proceso osmótico en ambas concentraciones con respecto a la muestra fresca sin deshidratar. Si bien durante la etapa de deshidratación osmótica se induce una
pérdida de luminosidad, L*, es independiente del tiempo de deshidratación. Respecto de los
parámetros a* y b* no se observan grandes cambios.
Se considera que la conservación de la calidad en el color de las peras deshidratadas se debió a las condiciones poco desnaturalizantes con las que se trabajó (temperaturas
moderadas de 30 °C) y al efecto protector del soluto (sacarosa) que limita las reacciones de
oxidación al evitar el contacto de la fruta con el oxígeno e inactiva las enzimas responsables
del pardeamiento enzimático (Marani y col., 2001; Krokida y Maroulis, 2000)
La muestra fresca, congelada y posteriormente descongelada, revela una disminución significativa en el parámetro L* y un aumento en b*, indicando un importante amarronamiento, respecto de la muestra fresca deshidratada. Respecto a las muestras deshidratadas,
congeladas y descongeladas, no existen diferencias significativas en cuanto a la variación del
color total en las 2 concentraciones estudiadas, siendo mucho más similares al color inicial
de la pera fresca que en la muestra sin deshidratar.
En cuanto a las mediciones de color en el kiwi, no se encontraron cambios significativos
en la coloración de las muestras deshidratadas con respecto a las frescas, en ambas concentraciones, tal como lo exhibe la Figura 2. Pequeñas variaciones en los parámetros L* y b* se observaron a tiempos largos de inmersión (tenue oscurecimiento de la fruta), viéndose reflejado en la
diferencia de color total (ΔE). Un comportamiento similar fue reportado en trabajos efectuados
por diversos autores: Talens y col., 2002 y Forni y col., 1990 ambos en kiwis dehidrocongelados.
El color verde esmeralda, característico del kiwi, se debe principalmente a la presencia de clorofila. Además esta fruta se caracteriza por tener altos niveles de ácido ascórbico
y bajos niveles de taninos y polifenoles, y actividad relativamente baja de polifenoloxidasa.
Esta combinación es la causante de la ausencia de oxidación, no siendo el pardeamiento enzimático una limitante en este caso particular. La principal causa de deterioro para el kiwi,
podría atribuirse a la degradación de la clorofila en feofitina (pigmento café claro), lo cual
podría ser el fundamento del cambio de coloración (Hohlberg y Aguilera, 1988).
Luego de la congelación-descongelación, los datos de las experiencias revelaron una
pequeña disminución del parámetro L* respecto a las muestras deshidratadas.
En la Figura 3 se indican los resultados de las mediciones realizadas en melón para
las muestras deshidratadas a 40 y a 60ºBrix. En cuanto a la variación del color total, no
se observan cambios significativos durante el proceso osmótico en ambas concentraciones
para cada tiempo estipulado. El cambio de color total es superior en el melón deshidratado
a 40ºBrix que a 60ºBrix, indicando la marcada influencia de la concentración de la solución
sobre el color de las muestras deshidratadas.
Respecto de los parámetros a* y b*, no se observan diferencias significativas en las
muestras deshidratadas, excepto un leve aumento en ambos para tiempos largos de deshidratación especialmente para las soluciones de 40ºBrix, confirmando lo anteriormente expresado.
Las principales causas de la degradación del color en el melón durante tratamientos de secado,
se atribuyen al pardeamiento no enzimático y a la pérdida de licopeno (Falade y col. 2007).
En cuanto a las muestras de melón descongeladas, las mismas no exhiben cambios
importantes de los parámetros L*, a* y b* con respecto a las muestras deshidratadas, indicando que la congelación y posterior descongelación no afectó de manera significativa el color
de las muestras en ambas concentraciones.
INVENIO 14 (26) 2011: 117-132
125
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
Maestrelli y col. (2001), realizaron experiencias con 2 variedades de melón, donde
comprobaron que el color no fue afectado durante el almacenamiento a -20°C en ambos tipos
de cultivo.
2.2.2
Ensayo de textura
Los resultados del ensayo de textura de las muestras frescas, deshidratadas y descongeladas, se muestran en las Figuras 4, 5 y 6.
En los gráficos siguientes, los valores de textura obtenidos durante el proceso de deshidratación y posterior congelación-descongelación (muestra deshidratada y descongelada: F),
fueron normalizados con los correspondientes al blanco en cada fruta (muestra fresca: Fo).
18
16
14
F/Fo
12
10
8
6
4
2
0
0
5
10
15
20
Tiempo de deshidratación (horas)
Peras deshidratadas 40ºBrix
Peras descongeladas 40ºBrix
25
30
Peras deshidratadas 60ºBrix
Peras descongeladas 60ºBrix
Figura 4. Ensayo de textura en discos de pera deshidratados y descongelados tratados con
soluciones de sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la
muestra fresca
126
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
1,2
1
F/Fo
0,8
0,6
0,4
0,2
0
0
5
10
15
20
Tiempo de deshidratación (horas)
Kiwi deshidratado 40ºBrix
Kiwi descongelado 40º Brix
25
30
Kiwi deshidratado 60ºBrix
Kiwi descongelado 60ºBrix
Figura 5. Ensayo de textura en discos de kiwi deshidratados y descongelados tratados con
soluciones de sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la
muestra fresca
1,2
1
F/Fo
0,8
0,6
0,4
0,2
0
0
5
10
15
20
25
30
Tiempo de deshidratación (horas)
Melon deshidratado 40 Brix
Melon deshidratado 60 Brix
Figura 6. Ensayo de textura en esferas de melón deshidratadas tratadas con soluciones de
sacarosa de 40 y 60°Brix, normalizado con los correspondientes valores de la muestra fresca
En la Figura 4 se exhiben los resultados de las mediciones de textura en las muestras
de peras en estado fresco, deshidratadas y posteriormente congeladas-descongeladas. Se observa que el proceso de deshidratación aumenta fuertemente la firmeza de las rodajas de pera
en las primeras horas, siendo más marcada en la solución más concentrada (60°Brix), luego
decrece y se mantiene en un rango estable.
INVENIO 14 (26) 2011: 117-132
127
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
La congelación y posterior descongelación significa un ablandamiento importante.
No obstante, las muestras previamente deshidratadas tienen una firmeza del orden del doble
que las sin deshidratar en ambas concentraciones.
Comportamientos similares fueron reportados por Marani y col. (2007), donde la
deshidratación previa con solución de sacarosa realizada en peras afectó la textura de las
muestras, las que presentaron un rápido y progresivo descenso en la fuerza de penetración
con el tiempo de inmersión.
Las mediciones de textura de las rodajas de kiwi fresca, deshidratadas y posteriormente congeladas-descongeladas se muestran en la Figura 5.
Para tiempos cortos de procesamiento, las muestras deshidratadas a 60 ºBx fueron las
que presentaron mayor firmeza, que luego disminuyeron su valor con el tiempo.
Luego de la congelación y descongelación, se observó una firmeza extremadamente
baja en los discos de kiwi en largos períodos de tratamiento, en ambas concentraciones.
Además hubo una diferencia notable de casi el 15% entre ambas concentraciones,
siendo la de 40 ºBx la que presentó mayor firmeza para cada tiempo de tratamiento, comparada con la muestra de 60 ºBx.
Este resultado concuerda con el obtenido por Robbers y col. (1997), pudiéndose
atribuir a la formación de cristales durante la congelación, los que dañarían la pared celular.
En la Figura 6 se representaron las mediciones correspondientes a las muestras de
melón deshidratadas solamente, debido a que se hizo dificultoso obtener resultados comparables de las muestras congeladas y luego descongeladas debido a la pérdida de firmeza
sufrida por dichas muestras (se desintegraron por completo).
Se observó que el proceso de deshidratación osmótica influyó de manera significativa sobre la textura del melón deshidratado, observándose una disminución continua de la
firmeza con el tiempo de DO, siendo más marcada a tiempos largos para la solución más
concentrada (60°Brix).
Los datos correspondientes al proceso de congelación-descongelación en melón no
se pudieron medir ya que se hizo dificultoso obtener resultados comparables de textura debido a la pérdida de firmeza sufrida por las muestras (aspecto blando y gomoso). Este comportamiento podría ser ocasionado por el elevado contenido acuoso y a la formación de
cristales durante la congelación que dañan la pared celular, causando así una plasticidad en
la estructura de la fruta (Robbers y col., 1997) sumada a la pérdida de textura ya sufrida en
el proceso de DO.
2.2.3
Determinación de exudado
En las siguientes Figuras 7, 8 y 9 se presentan los resultados de las experiencias de
exudado, obtenidas durante la descongelación en las tres frutas estudiadas en ambas concentraciones de 40 y 60°Brix.
128
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
120
Exudado (%)
100
80
60
40
20
0
fresca
1H
2H
4H
8H
Muestras deshidratadas
40ºBrix
16H
24H
60ºBrix
Figura 7. Exudado durante la descongelación de discos de pera frescos y
tratados con soluciones de sacarosa a 40 y 60°Brix.
120
Exudado (%)
100
80
60
40
20
0
fresca
1H
2H
4H
8H
16H
24H
Muestras deshidratadas
40ºBrix
60ºBrix
Figura 8. Exudado durante la descongelación de discos de kiwi frescos y
tratados con soluciones de sacarosa a 40 y 60°Brix.
INVENIO 14 (26) 2011: 117-132
129
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
450
400
Exudado (%)
350
300
250
200
150
100
50
0
fresca
1H
2H
4H
8H
Muestras deshidratadas
40ºBrix
16H
24H
60ºBrix
Figura 9. Exudado durante la descongelación de esferas de melón frescas y
tratadas con soluciones de sacarosa a 40 y 60°Brix.
La Figura 7 reporta los resultados de las pruebas de exudado durante la descongelación de peras sometidas a deshidratación y una posterior congelación, tomando como
parámetro de referencia la muestra de pera fresca sin deshidratarse. En la gráfica se observa
una tendencia decreciente de exudado a medida que el tiempo de deshidratación aumenta,
en las dos condiciones estudiadas. Los valores inferiores corresponden a la concentración
de 60ºBrix, debido a que la fruta presenta un mayor contenido de sólidos y menor contenido
de agua a iguales tiempos de deshidratación, ocasionando menos daño en la pared celular
durante la congelación y mayor capacidad de reabsorción.
En la Figura 8 se presentan los resultados de las experiencias de exudado, obtenidos
durante la descongelación de rodajas de kiwi tratadas osmóticamente y luego congeladas. En
el gráfico, los discos de kiwi exhibieron un constante descenso del exudado en función del
tiempo de deshidratación, siendo levemente superior para las muestras de 40 ºBx, consecuencia de un mayor contenido de agua en dichas muestras.
Ambos tipos de frutas, pera y kiwi, presentan el mismo comportamiento, observándose un descenso progresivo del exudado en función del tiempo de deshidratación osmótica.
Cortos tiempos de pretratamiento (durante las 4 primeras horas de inmersión) arrojaron valores inferiores al 50% respecto de la muestra fresca (referencia).
Esto podría ocurrir por la elevada deshidratación que se produjo en ambas concentraciones al inicio del proceso, que condujo a un menor contenido de agua y a una disminución
en el daño celular durante la etapa de congelación.
Garrote y Bertone, (1989) estudiaron mitades de frutillas deshidratadas en diferentes
soluciones de glicerol, glucosa y sacarosa, las cuales presentaron menor exudado comparadas con aquellas muestras sin deshidratar. El mismo comportamiento fue reportado por Spiazzi y col. (1998) en piezas de melón, las que presentaron menor exudado a medida que el
tiempo de deshidratación aumentaba.
En el caso del melón representado en la Figura 9 y considerando las mediciones de
textura anteriores, en donde la estructura de la fruta está totalmente dañada para tiempos lar-
130
INVENIO 14 (26) 2011: 117-132
Dehidrocongelación de frutas: estudio de los parámetros de calidad
gos de inmersión, aquí se observó el mismo comportamiento. Se determinó un aumento en la
cantidad de exudado en las muestras de melón deshidratadas a partir de 1 hora, aumentando
la cantidad de exudado hasta las 4 horas de deshidratación, respecto de las muestras frescas,
siendo más notorio en el caso de las muestras deshidratadas a 40°Brix.
Este resultado parece contradecir las expectativas del efecto crioprotector del azúcar (Nunes y col., 1996; Talens y col., 2002), pero dicho comportamiento podría explicarse
en base al perfil de soluto y de humedad generado durante el proceso osmótico. Durante el
período de descongelación, la elevada concentración de azúcar en la superficie de la fruta
puede provocar la migración de agua desde el interior, donde la concentración de soluto ha
permanecido prácticamente constante.
Similar comportamiento fue reportado por Marani y col. (2007) durante la descongelación de frutillas previamente sometidas a deshidratación osmótica; Akbaba e Icier (1998)
donde encontraron que la cantidad de exudado de frutillas envasadas cubiertas con azúcar
cristalino fue mayor que en frutillas frescas y Ramallo y Mascheroni, (2009) para el caso de
la descongelación de ananás.
En este caso particular, es mucho más notable la diferencia de exudado en ambas
concentraciones, siendo mayor para las muestras deshidratadas con soluciones de 40ºBx.
4. Conclusiones
El estudio de los parámetros de calidad, como el color, la textura y el exudado al
descongelar, manifestaron comportamientos que no pueden ser generalizados, indicando la
influencia de la matriz alimentaria utilizada. La posibilidad de utilizar principalmente peras
y kiwis dehidrocongelados es bastante amplia. Un descenso continuo del exudado con el
tiempo de inmersión (producto de la pérdida de agua durante las primeras horas de pretratamiento), el efecto protector de la solución sobre el producto que limita las reacciones de
pardeamiento y pequeñas variaciones en la textura respecto a las muestras frescas, hacen que
el uso de estas frutas sea recomendable. Respecto al melón, si bien los resultados indicaron
un descenso en la calidad de esta fruta (siendo los factores limitantes la textura y exudado),
no demostraría ser una limitación para su uso, lo que podría destinarse al consumo de un
producto congelado tal como un postre helado. El empleo en este tipo de productos cuenta
además con la ventaja extra que representa la incorporación de sólidos en la fruta desde la
solución osmótica, disminuyendo su punto de congelación.
5. Agradecimientos
Los integrantes del proyecto agradecen a CONICET; ANPCyT y en especial a UCEL
por el apoyo económico.
Además los investigadores agradecen particularmente al CIDCA por haber permitido
utilizar el equipamiento y el espacio físico para realizar todas las experiencias; al Ing. Ramiro
Arballo y a la Bioq. Ruth Bambicha por transmitirnos sus conocimientos y enseñanza, su
predisposición y gentileza; al Ing. Luis Roche por su colaboración durante la realización de
las congelaciones.
Recibido: 21/04/10. Aceptado: 16/06/10
INVENIO 14 (26) 2011: 117-132
131
Melina Bianchi - Ana Guarnaschelli - Pablo Milisenda
BIBLIOGRAFÍA
Agnelli, M.E.; Marani, C.M.; and Mascheroni, R.H., Modelling of heat and mass transfer during (osmo) dehydrofreezing of fruits. Journal of Food Engineering, 2005, Vol. 69, 415-424.
Akbaba, H.; Icier, F. Effect of sugar treatments on freezing of strawberries. Proceedings of Advances in the
Refrigeration Systems, Food Technologies and Cold Chain Commissions B2, C2 & D1-3. Sofia, Bulgarie.
International Institute of Refrigeration, 1998, Vol. 6: 570-577.
Alzamora, S.M.; Gerschenson, L.N.; Vidales, S.; Nieto, A. 1997. Structural changes in the minimal processing of
fruits: Some effects of blanching and sugar impregnation. En: P. Fito, E. Ortega-Rodríguez y G. V. BarbosaCánovas (Ed.). Food engineering . New York, Chapman & Hall, 2000, pp. 117-140.
Falade, K.O.; Igbeka, J.C.; Ayanwuyi, F. Kinetics of mass transfer, and colour changes during osmotic dehydration of watermelon. Journal of Food Engineering, 2007, Vol. 80, pp. 979-985.
Forni, E.; Torreggiani, D.; Crivelli, G.; Maestrelli, A.; Bertolo, G.; and Santelli, F., Influence of osmosis time
on the quality of dehydrofrozen kiwi fruit. In International Symposium of kiwifruit. Acta Horticulturae,
Padova.1990, Vol. 282, pp. 425-433.
Garrote, R. L.; Bertone, R. A., Osmotic concentration at low temperature of frozen strawberry halves. Effect
of glycerol, glucose and sucrose solutions on exudate loss during thawing. Lebensmittel-Wissenschaft und
Technologie, 1989, Vol 22, pp. 264–267.
Hohlberg A.; Aguilera J. M. Deshidratación de Kiwis. Informe Final, DICTUC, Santiago de Chile, Pontificia
Universidad Católica de Chile, 1988.
Krokida M; Maroulis Z. Quality changes during drying of foods materials. In: Drying Technology in Agricultural
and Food Sciences, Mujumdar, A.S. Ed. Science Publishers, Endfield, 2000, pp 61-106.
Maestrelli, L.; Lo Scalzo, D.; Lupi, D.; Bertolo, G.; Torreggiani, D. Partial removal of water before freezing :
cultivar and pre-treatments as quality factors of frozen muskmelon (Cucumis melo, CV reticulatus Naud.).
Journal of Food Engineering, 2001, Vol. 49, pp. 255-260.
Marani, C.M.; Agnelli, M.E. ; Mascheroni, R.H., Osmo-frozen fruits: mass transfer and quality evaluation. Journal of Food Engineering, 2007, Vol. 79, 1122-1130.
Marani, C.M.; Agnelli, M.E.; Mascheroni, R.H., Mass transfer and quality evaluation of osmo-frozen pears. VI
Congreso Iberoamericano de aire acondicionado y refrigeración, CIAR. 2001. pp 597-604.
Monzini A.; Maltini E. Nuovi orientamenti sulla trasformazione degli ortofrutticoli. Deidrocongelazione e trattamento osmotico. Industria Conserve, 1986, Vol. 61, 265-272.
Nunes, M.H.; Miguel, M.H.; Kieckbusch, T.G. Influencia dos solutos na conservacao de fatias de manga no
processo combinado desidratacao osmotica e congelamento. Anais do VI Congresso Brasileiro de Engenharia e Ciências Térmicas (VI ENCIT) e VI Congreso Latinoamericano de Transferencia de Calor y
Materia (LATCYM 96), Florianópolis-SC, Brasil, 1996, Vol. I, 647-650.
Ramallo, L.A.; Mascheroni, R.H. Efecto de la congelación sobre la calidad de ananá osmo-deshidratado. Actas
del III Congreso Internacional de Ciencia y Tecnología de los Alimentos, 2009, Córdoba, Argentina, (en
prensa).
Robbers, M.; Singh, R.P.; Cunha, L.M., Osmotic-convective dehydrofreezing process for drying kiwifruit. Journal of Food Science, 1997, 62(5), 1039-1047.
Spiazzi, E.; Mascheroni, R. Mass transfer model for osmotic dehydration of foods and vegetables. Journal of
Food Engineering, 1997, Vol. 34, 387-410.
Spiazzi, E.; Raggio Z.; Bignone K.; Mascheroni R., Experiments in dehydrofreezing of fruits and vegetables:
mass transfer and quality factors. IIR proceedings Series “Refrigeration Science and Technology”, Sofia,
Bulgaria, 1998.
Talens P.; Martínez Navarrete N.; Fito, P.; Chiralt, A. Changes in optical and mechanical properties during osmodehydrofreezing of kiwi fruit. Innovative Food Science and Emerging Technologies, 2001. 3, 191-199.
Talens, P.; Martínez-Navarrete, N.; Fito, P.; Chiralt, A. Changes in optical and mechanical properties during osmodehydrofreezing of kiwifruit. Innovative Food Science & Emerging Technologies, 2002, 3(2), 191-199.
Torreggiani D. Osmotic dehydration in fruit and vegetable processing. Food Research International 1995, Vol.
26, pp. 59-6.
132
INVENIO 14 (26) 2011: 117-132
DESARROLLO DE UNA PRE-MEZCLA PARA PIZZA A
BASE DE HARINA DE GRANO ENTERO
DE SORGO Y MIJO
Nora Aimaretti - Emilce Llopart - Agustín Codevilla,
Carolina Baudino - Adriana Clementz*1
Resumen: En respuesta a las recomendaciones nutricionales y con el fin de aumentar la
disponibilidad de productos elaborados a base de harinas de grano entero se molieron sorgo y mijo, con 100% de rendimiento, de modo de obtener harina de grano entero de sorgo
(S) y de mijo (M). El análisis de funcionalidad de las harinas mostró que sus propiedades
panaderas no son buenas, pese a que sí lo son sus propiedades nutricionales. Por este motivo se ensayaron diferentes formulaciones de harinas, agentes de leudado y otros aditivos
con el fin de diseñar una pre-mezcla en polvo, sin TACC, adecuada para la elaboración de
pizza casera.
Palabras claves: harina de grano entero – sorgo – mijo – pizza – celiaquía
ABSTRACT: Pizza premix based on whole grain sorghum and millet flour
Sorghum (S) and millet (M) whole grain flours were obtained with a 100% yield in order
to increase the availability of products manufactured from whole grain flours which would
meet nutritional guidelines. The results of the functional tests run on the flours were poor
for bread making although the nutritional properties of both flours were quite good. Therefore, several flour formulas, leavening agents and other additives were tested in order to
design a gluten-free powder premix suitable for homemade pizza.
Key words: wholegrain flour – sorghum – millet – pizza – celiac diseease
*
Nora Aimaretti es Bioquímica, Lic. en Biotecnología y Mg. en Ciencia y Tecnología de Alimentos por UNL,
Profesora Universitaria por UCEL y Diplomada en Estudios Avanzados por UNED. Es docente e investigadora
en la Facultad de Química (UCEL); docente e investigadora en la Facultad de Bioquímica y Ciencias Biológicas
(UNL). Su tarea de investigación se desarrolla en el área del diseño de alimentos innovadores y en el área de los
biocombustibles, en las cuales ha formado a numerosos estudiantes y graduados. Sus trabajos de investigación
son publicados en revistas nacionales e internacionales, como así también en Congresos. Actualmente es Directora de los Proyectos ALI 120 y ALI 121 radicados en UCEL. E-mail: naimaretti@ucel.edu.ar.
Emilce Llopart es Licenciada en Nutrición y Profesora Universitaria por UCEL.Es docente e investigadsora en
la Facultad de Química (UCEL). Su tarea de investigación se desarrolla en el área del diseño de alimentos innovadores en el grupo responsable del Proyecto ALI 120 radicado en UCEL.
Agustín Codevilla es alumno de 4° año de la carrera de Ingeniería en Tecnología de los Alimentos y pasante de
investigación en el Proyecto ALI 120.
Carolina Baudino es Ingeniera en Tecnología de los Alimentos y Profesora Universitaria por UCEL, se desempeña como investigadora en el Proyecto ALI 120.
Adriana Clementz es Ingeniera en Tecnología de los Alimentos por UCEL e investigadora del Proyecto ALI
120.
Los autores agradecemos los aportes de UCEL en el proyecto de investigación ALI 120: “Desarrollo de alimentos funcionales innovadores a base de grano entero”, en cuyo marco se desarrolló esta investigación.
INVENIO 14 (26) 2011: 133-140
133
Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz
Fundamento del producto
Los hábitos alimenticios de la población argentina reflejan el consumo de una alimentación occidentalizada con predominancia de alto consumo de carne vacuna y bajo en
fibra. Los elevados niveles de colesterolemia y de sobrepeso, junto a los altos índices de
enfermedades cardiovasculares, originan la necesidad general de reducir la ingesta de energía, grasas saturadas, trans, y colesterol, al tiempo que se incrementa el consumo de fibra.
Este perfil de modificaciones concuerdan con las recomendaciones dietéticas de la Estrategia
Mundial dirigida a las poblaciones (CODEX, 2006), que a su vez se basan en el incremento
del consumo de cereales de grano entero debido a su aporte de fibra dietética, antioxidantes, minerales, vitaminas, lignanos y compuestos fenólicos (Slavin, 2005); y a que además
poseen altas concentraciones de vitaminas B (tiamina, niacina, riboflavina y ácido pantoténico), minerales (calcio, magnesio, potasio, fósforo, sodio y hierro), tocoferoles y actividad
antioxidante (fitatos y compuestos fenólicos) (Miller, 2002). En consecuencia, estos cereales
promueven efectos benéficos para la salud como ser: reducción de los niveles de colesterol
en sangre, prevención de algunos tipos de cáncer, diabetes, acción laxante, disminución de
enfermedades coronarias y obesidad (Vitali, 2008).
Acorde a estas indicaciones hemos realizado un estudio observacional transversal en
el mercado argentino advirtiendo que la oferta de alimentos ricos en fibras no es variada y en
consecuencia se propuso la elaboración de un polvo para preparar pizzas caseras a base de
harinas de granos enteros de sorgo y mijo.
La propuesta considera la utilización de cereales que posean menores requerimientos de
nutrientes y de agua, como es el caso del sorgo y del mijo, de modo que puedan cultivarse en regiones agroclimáticas diversas (Oramas et al., 2002). De este modo, diversificando la agroindustria regional se aportaría también una solución positiva en lo que refiere a la inclusión social y el
mejoramiento de la calidad de vida de las personas celíacas, ya que este sector se ha cuadruplicado
en últimos 50 años (Catassi et al., 2007).
La elección de la pizza como variante de alimento se fundamenta en que es un producto consumido masivamente, en todos los sectores de la sociedad, por personas de todas
las edades. Además es un alimento muy utilizado como menú en las fiestas informales, lo
que lo convierte en una alternativa muy adecuada para los festejos de grupos de personas en
los cuales se incluye una persona celíaca. Por su parte, si este producto se ofrece como premezcla en polvo se le suma, a todas las ventajas mencionadas anteriormente, el hecho de que
sea fácil de comercializar y de manipular en el hogar, permitiendo además la incorporación
de los secretos de todos los chefs hogareños, con el fin de lograr la mejor pizza.
Introducción
Los cereales y sus productos derivados constituyen el aporte más importante de la
elipse de distribución alimentaria de nuestro país y se recomienda un consumo diario de seis
a once porciones, de las cuales por lo menos tres sean de cereales integrales o de grano entero
debido a su aporte en fibras dietáreas y de componentes bioactivos. Aunque los cereales son
una fuente popular de alimento en América Latina, la mayor parte del cereal consumido es
refinado, siendo el consumo promedio de cereal integral, de sólo una porción diaria. Por este
motivo es necesario implementar estrategias que permitan incrementar la ingesta de cereales
integrales para ayudar a combatir el problema creciente de enfermedades crónico degenera-
134
INVENIO 14 (26) 2011: 133-140
Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo
tivas, así como también la obesidad (Slavin, 2005).
Un grano de cereal intacto puede ser considerado como un complejo aglomerado de
nutrientes, que pueden diferir marcadamente en su composición física, pero todos comparten
la misma anatomía básica: una capa externa de salvado, el germen y un endospermo rico en
almidón. Si durante la molienda, los componentes del salvado, del germen y del endospermo
se mantienen en las mismas proporciones en las que existen en el grano intacto, el producto
obtenido se clasifica como “Harina de grano entero” (Richardson, 2003). De este modo, cuando estas harinas son utilizadas en la elaboración de alimentos, éstos pueden reconocerse como
funcionales, debido a que contienen componentes bioactivos en concentraciones cuantificables,
capaces de ejercer un efecto positivo sobre la salud más allá de su capacidad de nutrir, al ser
consumidos como parte de la dieta habitual (Robertfroid, 2000; Robertfroid, 2002; IFT, 2005).
En el caso de los derivados de cereales de grano entero se traduce en: reducción de los niveles
de colesterol en sangre, prevención de algunos tipos de cáncer, diabetes, acción laxante, disminución de enfermedades coronarias, enfermedad celíaca y obesidad (Vitali, 2008).
El sorgo y el mijo son la fuente principal de energía, proteínas, vitaminas y minerales
para millones de habitantes de las regiones más pobres, como Asia y África, debido a que
ambos se cultivan en ambientes duros, donde otros cultivos dan poco rendimiento. Si bien
no suelen ser objeto de comercio internacional y no se venden en los mercados locales de
muchos países (Oramas, et al, 2002), sus propiedades nutritivas los transforman en una alternativa para desarrollar alimentos libres de trigo, avena, cebada o centeno, que puedan ser
consumidos por personas celíacas.
La enfermedad celíaca es una enfermedad poli-sintomática producida por el daño
en las vellosidades del intestino delgado cuando las personas susceptibles ingieren gluten,
término utilizado para describir proteínas contenidas en el trigo, centeno, cebada y avena.
Específicamente, éstas corresponden a las prolaminas denominadas gliadinas en el trigo, hordeínas en la cebada, secalinas en el centeno y aveninas en la avena (Shewry, 2002). Esta población es cuatro veces mayor en la actualidad de lo que lo era hace 50 años, dado que se han
reconocido formas atípicas que permitieron mejorar la pesquisa (Catassi, 2007). Pese a sus
variantes, en todos los casos se requiere de un tratamiento inmediato que permita recuperar
la estructura y las funciones de las vellosidades intestinales para disminuir sus complicaciones (American Gastroenterological Association, 2006). Sin embargo, mantener este tipo de
alimentación presenta una serie de dificultades, por su elevado costo y por la falta de comercialización de alimentos sin TACC. Esto se debe principalmente a que las harinas sin gluten
(arroz, maíz, papa, mandioca) tienen un mayor costo, y requieren controles de calidad que
aseguren la ausencia de estas proteínas (Méndez, 2005).
De lo expuesto anteriormente se desprende la necesidad de ofrecer nuevos alimentos
funcionales sin TACC, a base de harinas de granos enteros, como podrían ser las de sorgo y
mijo, que además de no contener gluten y de propiciar una alimentación variada, agreguen
al producto otras propiedades funcionales y nutritivas, como mayor contenido de minerales
(calcio, magnesio, potasio, fósforo, sodio y hierro), vitaminas (tiamina, niacina, riboflavina
y ácido pantoténico), lignanos y niveles elevados de tocoferoles, fitatos y compuestos fenólicos que son responsables por la alta actividad antioxidante de los alimentos a base de
cereal integral. (Miller, 2002; Slavin, 2005; Vitali, 2008). Sumado a lo anterior la utilización
de sorgo y mijo como materia prima permitiría además obtener productos de menor precio.
En un estudio anterior realizado por Aimaretti et al. (2010), se evaluó la calidad tecnológica de estas harinas mediante el perfil de capacidad de retención de solventes (SRC), debido a
INVENIO 14 (26) 2011: 133-140
135
Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz
que este test permite evaluar la funcionalidad tecnológica de las harinas. En el mismo se relacionan cuatro tipos de solventes con los distintos componentes de la harina, arrojando valores independientes, y de la combinación de ellos se establece un perfil práctico de calidad y funcionalidad
de harinas, usado para predecir el comportamiento durante el horneado (AACC, 2000). Los resultados obtenidos indicaron que si bien el sorgo y el mijo poseen reconocida calidad nutricional, no
poseen buena calidad panadera. Sin embargo, al ensayar formulaciones de harinas en las cuales
se combinaron las harinas de grano entero de sorgo y de mijo, con almidón de maíz y almidón de
maíz modificado, se permitió un acercamiento significativo a los valores de SRC recomendados
para harinas utilizadas en la elaboración de galletitas. Esto se refleja en ventajas tecnológicas que
permiten obtener productos de panificación de buena calidad, siempre que en estos no se pretenda
un buen desarrollo del volumen o de alveolado, como es el caso de la pizza.
La aparición y desarrollo de nuevos alimentos funcionales en el país sigue la tendencia
internacional de un crecimiento sostenido, aunque aquí, en forma lenta. Sin embargo, las propiedades sensoriales de estos productos constituyen aún un desafío para la industria debido a que
influyen en los consumidores, más que la biodisponibilidad de sus nutrientes (Slavin et al., 2000).
Por ello, los alimentos desarrollados deben ser sometidos a evaluaciones sensoriales subjetivas de
aceptación que permitirán direccionar las modificaciones a realizar sobre los mismos.
Objetivo
El objetivo de este trabajo fue mejorar las propiedades panáreas de las harinas de
grano entero de sorgo y mijo, a fin de desarrollar un alimento funcional innovador, de fácil
elaboración, sensorialmente aceptable y que a su vez pueda ser consumido por personas celíacas, como lo es una pre-mezcla para la elaboración de pizzas.
Metodología
Materias primas: El sorgo (Sorghum sp.) y mijo perla (Pennisetum glaucum), fueron
obtenidos directamente de productores santafesinos y conservados a temperatura ambiente
(humedad <14%). La molienda se realizó en molino a cuchillas (Analyzer Molino MC-I) hasta tamaño de partícula < 500 µm y las correspondientes harinas finas de grano entero de sorgo
(S) y de mijo (M) fueron mantenidas a temperatura ambiente, en envase cerrado. El almidón
resistente PROMITOR fue gentilmente cedido por su representante. La fécula de mandioca
(Kapac) y almidón de maíz (Maizena) fueron adquiridas en locales comerciales.
Determinaciones analíticas: Humedad: Método 44-19 (AACC 2000). Proteína: El
contenido de nitrógeno fue determinado por el método Kjeldhal (AACC 2000). El contenido
proteico fue calculado como N x 6,25 para S (Codex Standard 173-1989) y N x 5,7 para M
(Codex Stan 170-1989). Lípidos: Por extracción intermitente en equipo Soxhlet, utilizando
hexano como solvente.
Elaboración de las pizzas: La pre-mezcla se preparó con los siguientes ingredientes:
100 g de harina (distintas variantes), 1 g de sal, 2 g de azúcar y el agente leudante indicado.
Durante la preparación, a la pre-mezcla se le adicionan 10 ml de aceite alto oleico y se mezclan
los ingredientes con la cantidad de agua necesaria para la formación de la masa, se bate con batidora durante 5 min. La masa formada se deja leudar en un recipiente tapado en una zona con
temperatura moderada durante 30 min. Luego se estira la masa y se coloca en el horno 180 °C.
Evaluación sensorial: Se llevó a cabo mediante pruebas afectivas utilizando un panel
136
INVENIO 14 (26) 2011: 133-140
Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo
de 20 individuos no entrenados de ambos sexos, sanos, aleatoriamente seleccionados dentro
del ámbito académico, de entre 15 y 65 años de edad. A cada uno de ellos se les presentan
las muestras en orden aleatorio junto a una planilla para volcar los datos y se les explicó las
implicancias de cada uno de los atributos sensoriales a evaluar. El nivel de agrado o desagrado se evalúa mediante una escala hedónica estructurada de 5 puntos: 5-me gusta mucho,
4-me gusta, 3-no me gusta ni me disgusta, 2-me disgusta y 1-me disgusta mucho, para los
atributos: apariencia, aroma, color, sabor y textura. Finalmente las categorías descriptivas
seleccionadas por cada panelista se convirtieron en scores y se analizaron estadísticamente.
Resultados
El comportamiento de una masa durante su procesamiento y la calidad de los productos
finales dependen fundamentalmente de los ingredientes y del tipo de proceso de elaboración
que se aplique. Es decir que variando los ingredientes o sus proporciones se pueden obtener
una gran variedad de productos, siendo en este caso la harina sin gluten el ingrediente de mayor
influencia en el desarrollo de nuevos productos panificados. Por este motivo, en función de experiencias anteriores, se tomó como harina de prueba inicial (harina 1) a la mezcla indicada en
la Tabla 1, dado que fue la formulación que presentó mejores propiedades tecnológicas.
Tabla 1: Composición porcentual de la harina 1.
%
32
32
32
4
S
M
Almidón
Almidón resistente
Selección del agente leudante
En virtud de que la harina propuesta no posee gluten, fue imprescindible seleccionar
un agente leudante que mediante la producción de gases permita mejorar el desarrollo de
alvéolos, dando características de esponjosidad y suavidad a la masa. Con este fin se prepararon pre-mezclas para elaborar pizzas, en las cuales se modificó el tipo de agente leudante
(todos sin TACC) y su concentración.
Los agentes leudantes ensayados fueron levaduras biológicas secas en gránulos (LEVEX) y leudante químico (ROYAL), que se agregaron a la formulación estándar de las premezclas en las proporciones porcentuales indicadas en la Tabla 2 y luego se elaboraron las
pizzas siguiendo la metodología descripta.
Tabla 2: Cantidad (g) de agente leudante utilizado cada 100g de harina.
MUESTRA
Levadura seca (g)
Leudante químico (g)
L1
5
L2
10
L3
15
Q1
Q2
Q3
0,5
1
2
El análisis visual y sensorial de las pizzas obtenidas con estas muestras, permitió advertir que al utilizar levaduras biológicas como agente leudante es posible mejorar, respecto de las
muestras con leudante químico, la consistencia, el alveolado y la textura de la masa, sin que se
modifiquen el sabor, el color y el olor de la mismas. Por su parte también pudo observarse que
INVENIO 14 (26) 2011: 133-140
137
Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz
en L1 el desarrollo de la masa no fue completo, mientras que L2 y L3 no presentaron diferencias
percibidas con estos métodos de evaluación. En consecuencia, se optó por utilizar como agente
leudante levaduras biológicas seca en gránulos en proporción del 10% del peso de la harina usada
en la pre-mezcla (muestra L2).
Selección mejoradores de masa
Hoy en día, en la industria de panificados se cuenta con una gran variedad de aditivos
que permiten mejorar los atributos sensoriales de las masas, principalmente cuando éstas se
elaboran con harinas de baja calidad panadera. Por este motivo se evaluó el comportamiento
de la pre-mezcla L2 al ser aditivada con: un agente oxidante como el ácido ascórbico que
favorece la formación de puentes disulfuros y así aumenta la tenacidad; y con agentes espesantes, gelificantes y estabilizantes, como la carboximetilcelulosa (CMC) y la goma xántica.
En la Tabla 3 se muestra la cantidad de aditivo adicionado a la pre-mezcla por cada 100g de
harina utilizada para formar la pre-mezcla L2.
Tabla 3: Cantidad de aditivo utilizado para mejorar la masa, cada 100g de harina L2.
MUESTRA
Acido ascórbico (g)
CMC (g)
Goma xántica (g)
A
1
B
1
2
C
1
2
Estas muestras se prepararon y se evaluaron como en los ensayos anteriores, siendo la
muestra B la que presentó mejores atributos sensoriales logrando un aspecto general, textura y
consistencia, similares a los correspondientes para una pizza elaborada con harina de trigo. En
lo que respecta a su aptitud para la formación de masa, esta muestra se destacó por ser menos
pegajosa y más cohesiva, logrando además un mejor comportamiento durante el horneado, que
se manifiesta en notables diferencias de esponjosidad y de calidad global en el producto obtenido.
Selección de la harina
Con el fin de optimizar el producto obtenido, respecto de los atributos sensoriales comúnmente observados en este tipo de alimentos, se ensayaron dos formulaciones de harinas, las cuales
se describen en la Tabla 4. Con cada una de estas harinas se prepararon pre-mezclas a las cuales
se les agregó el agente de leudado y los aditivos ya seleccionados en los ensayos anteriores.
Tabla 4: Proporción de cada componente en la formulación de Harinas.
S (%)
M (%)
Almidón (%)
Almidón resistente (%)
Almidón de mandioca (%)
Harina 1
32
32
32
4
Harina 2
25
25
35
5
10
La pre-mezcla formulada con la harina 2 presentó mejor comportamiento durante el amasado, siendo relativamente extensible y suficientemente cohesiva, aportando características tecnológicas próximas a las de una harina con gluten. Esto permitió además que durante el horneado se formen pequeños alvéolos capaces de retener aire, los cuales dieron suavidad y esponjosidad a la masa.
138
INVENIO 14 (26) 2011: 133-140
Desarrollo de una pre-mezcla para pizza a base de harina de grano entero de sorgo y mijo
Evaluación sensorial de pizzas elaboradas con la pre-mezcla seleccionada
En síntesis, la pre-mezcla seleccionada para la elaboración de pizzas caseras se preparó con: 100g de harina 2, 1g de sal, 2g de azúcar, 10g de levadura biológica granulada, 1g
de ácido ascórbico, 2g de goma xántica y 2g de CMC; y las instrucciones de preparación de
las pizzas no se modificaron.
La calidad de las pizzas elaboradas con esta pre-mezcla se evaluó subjetivamente mediante un análisis sensorial afectivo y los resultados se muestran en la Tabla 5. En la misma puede
observarse que en todos los parámetros se manifiesta la aceptación del producto final, siendo los
valores más bajos los correspondientes a los atributos notablemente modificados por el tipo de
harinas utilizado. Esto se debe a que los consumidores tienden a comparar un producto innovador
con algún producto que tengan incorporado en su vida cotidiana, lo que en este caso sería la pizza
elaborada con harina de trigo.
Tabla 5: Promedio y SD de los scores sensoriales de cada atributo (n=20).
SABOR
7.5 ± 1,1
AROMA
6,3 ± 1,6
COLOR
7.1 ± 1,4
APARIENCIA TEXTURA
8,7 ± 0,4
8 ± 0,6
Selección del envase
Dado que el producto consiste en una pre-mezcla en polvo, no se requiere un envase
de características particulares. Por este motivo se decidió utilizar como envase primario una
bolsa de polietileno de baja densidad de 20 micrones, sin fuelles y capacidad para 200 g de
producto, que es la cantidad suficiente para la elaboración de una pizza. Además de esta bolsa
sellada al calor, se propone comercializar el producto en una caja de cartón con ventana de
PVC, como envase secundario. Esta ventana permite exhibir el producto, de modo de mostrar
su diferencia con el resto de los productos similares, ya conocidos por los consumidores.
El color es uno de los elementos visuales con mayor carga, por esto, entre los colores elegidos para el envase secundario, predomina el marrón porque con él se representa
a la madre Tierra, dando idea de estabilidad, realismo, cautela y fertilidad. De este modo es
posible diferenciar el producto del resto de los de su segmento y al mismo tiempo da idea
de un alimento natural. En la Tabla 6 se muestra la Información Nutricional con el formato
establecido por la Legislación vigente en el CAA.
Tabla 6: Información nutricional del alimento.
INFORMACIÓN NUTRICIONAL
Porción: 40g
Porciones por envase: 5 aprox.
Cantidad
Cantidad por
% VDR (*) por
por 100g
porción
porción
Energía
202.5 g
81g
6
Carbohidratos
63.5 g
25.5 g
4
Proteína
8.0 g
3.2 g
2
Grasas totales
2.3 g
0.9 g
1
Grasas saturadas
0.4 g
0.2 g
Grasas trans
no contiene
Fibra
8.1 g
3.2 g
6
Sodio
202.5 mg
81.0 mg
(*) % Valores Diarios con base a una dieta de 2.000 kcal u 8.400 kJ. Sus valores
diarios pueden ser mayores o menores dependiendo de sus necesidades energéticas.
INVENIO 14 (26) 2011: 133-140
139
Nora Aimaretti - Emilce Llopart - Agustín Codevilla - Carolina Baudino - Adriana Clementz
Conclusiones
Combinando las harinas de grano entero de sorgo y de mijo con almidones y aditivos fue posible mejorar sus propiedades panaderas y así desarrollar una formulación en polvo
apta para preparar pizzas caseras a base de harinas de grano entero de sorgo y de mijo. De
este modo se contribuye a aumentar la disponibilidad de alimentos sin TACC con propiedades funcionales, de elevado valor nutricional y sensorialmente aceptables.
Recibido: 01/09/10. Aceptado: 03/12/10
BIBLIOGRAFÍA
AACC International. (2000). Approved Methods of the American Association of Cereal Chemists, 12th. The
Association: St. Paul, MN.
Aimaretti, N., Llopart, E., Baudino, C., Codevilla, A., Clementz, A. Improvement of the quality of sorghum
and millet whole grain flours. Journal of Food Science and Technology. (en proceso de referato).
American Gastroenterological Association. 2006. The American Gastroenterological Association (AGA)
Institute technical review on the diagnosis and management of celiac disease. Gastroenterology, 131:
1981-2002.
Catassi C, Kryszak D, Louis-Jaques O, Duerkesen Dr, Hill I, Crowe Se et al. 2007. Detection of Celiac disease in primary care: a multicenter case-finding study in North America. Am J Gastroenterol, 102: 1461-3. CODEX . 2006. Solicitud de observaciones sobre el proyecto de plan de acción para la aplicación de la estrategia mundial sobre régimen alimentario, actividad física y salud. CL 2006/44-CAC.
IFT 2005. Expert Report: Functional foods: opportunities and challenges.
Méndez E, Vela C, Immer U, Janssen FW. 2005. Report of a collaborative trial to investigate the performance of the R5 enzyme linked immunoassay to determine gliadin in gluten-free food. Eur J Gastroenterol
Hepatol, 17: 1053-63.
Miller G, Prakash A, Decker E. Whole-grain micronutients. 2002. In: Whole Grain Foods in Health and Disease, Marquart L, Slavin JL, Fulcher RG, Eds, Eagan Press, St. Paul, MN, pag 243-260.
Oramas, Valdés, Hernández, Queri, García, Sánchez, González, 2002. Obtención de variedades de sorgo (Sorgum bicolor) de doble propósito a través del método de selección progenie por surco. Agrotecnia de Cuba,
28 (1):39.
Richardson, D. 2003. Wholegrain health claims in Europe. Proceedings of the Nutrition Society, 62: 161-169.
Robertfroid M.B. 2000. Defining functional foods, Chpt. 1, in “Functional foods. Concept to product”. Edited
by Glenn R. Gibson and Christine M. Williams, pag 9-25. CRC Press, Washinngton DC.
Robertfroid M.B. 2002. Global view of functional foods: European Perspectives. British Journal of Nutrition,
Vol 88, Supplement 2. Proceedings of an international Symposium 17-19 october 2001 in Paris, organized
by ILSI Europe. S133-S138.
Shewry PR, Halford NG. 2002. Cereal seed storage proteins: structures, properties and role in grain utilization. J Exp Biol, 53: 947-958.
Slavin J. 2005. Dietary fiber and body weight. Nutrition, 21:411-418.
Slavin, J, Jacobs D, Marquardt L, 2000. Grain processing and nutrition. Critical Reviews in Food Science and
Nutrition, 4: 309–326.
Vitali D, Vedrina Dragojevié I, Sebecic B. 2008. Bioaccessibilility of Ca, Mg, Mn and Cu from whole grain
tea-biscuits: Impact of proteins, phytic acid and polyphenols. Food Chemistry, 110: 62-68.
140
INVENIO 14 (26) 2011: 133-140
variación de las propiedades superficiales
a altas temperaturas en óxidos
de metales de transición
soportados en alúmina, para su utilización en reacciones
catalíticas que involucren adsorción de gases
Ignacio Daniel Coria*1
RESUMEN: Existe muy poca información actualmente sobre el comportamiento de superficies como los óxidos de metales de transición cuando se los somete a temperaturas
entre 600 y 1000ºC, temperaturas a las que se trabaja normalmente en la industria. En
este proyecto se utilizaron óxidos de metales como Vanadio, Cromo, Manganeso, Hierro,
Cobalto, Molibdeno y Níquel. Estos sólidos deben caracterizarse antes y después de su
utilización a distintas temperaturas. La caracterización implica la determinación de Superficie BET, Difracción de Rayos X (XRD), análisis químicos por AAS y Espectroscopía Fotoelectrónica de Rayos X (XPS). Se exponen aquí los resultados obtenidos.
Palabras clave: Superficie BET - Espectroscopía Fotoelectrónica de Rayos X (XPS)
- Difracción de Rayos X (XRD) - Espectroscopía de Absorción Atómica (AAS)
ABSTRACT: Study on the variation of surface properties at high temperatures of
transition metal oxides on an alumina support for their use in catalytic reactions
involving gas adsorption
At present, there is very little information about the behavior of surfaces such as
transition metal oxides under temperatures between 600 ºC and 1000 ºC, which are
very common in industrial processes. In these project, metal oxides like Vanadium,
Chrome, Manganese, Iron, Cobalt, Molybdenum and Nickel. These solids must be
characterized before and after use at different temperatures. The characterization implies Surface BET determination, X-Ray Diffraction (XRD), chemical analysis by
AAS and X-Ray Photo-electronic Spectroscopy (XPS). The results obtained in the
above mentioned project are presented here.
Keywords: BET Surface - XRD - XPS - AAS.
* Ignacio Daniel Coria es Doctor en Ciencias Químicas por la Universidad Nacional de Educación a Distancia
(UNED, España) y Especialista en Recuperación de Suelos Contaminados por la Universidad Politécnica de
Cataluña. Se ha desempeñado como docente universitario durante treinta años. En la actualidad es Decano de la
Facultad de Química de la Universidad del Centro Educativo Latinoamericano (UCEL) e investigador y profesor
titular en distintas cátedras de su área específica en carreras de grado y posgrado en la Universidad Católica Argentina (UCA) y en la UCEL. Dicta cursos de especialización y conferencias en carreras de posgrado, además de
cursos de capacitación. E-mail: dcoria@ucel.edu.ar
INVENIO 14 (26) 2011: 141-154
141
Ignacio Daniel Coria
Introducción
Se distinguen dos tipos de adsorción, una física (Van der Waals) y otra química (quimisorción). En el caso de la adsorción física ésta depende muy poco de la naturaleza química
del sólido. En cambio en la adsorción química intervienen enlaces electrónicos bien definidos
entre la sustancia adsorbida y la superficie. Como toda reacción química, la adsorción química es un fenómeno muy específico que depende de la naturaleza de la sustancia adsorbida
y del adsorbente.
Podemos considerar a la formación de un centro activo de superficie como una fractura de un cristal de un sólido. En este proceso las uniones covalentes entre átomos se rompen
y así cada átomo superficial deberá poseer una o dos valencias libres. El número y tipos de
estas valencias dependen de las uniones entre átomos en el sólido completo y el ángulo que
la fractura tomó a través del cristal. Una forma de adsorción ocurre como resultado de la interacción de las moléculas de gas con esas valencias libres; esto debe ser considerado como una
reacción química donde existen reordenamientos, a veces drásticos, de los electrones dentro
de la molécula. La adsorción es química.
En los sólidos iónicos existe también un desbalance de fuerzas debido a que cada ión está
rodeado por menos que el número propio de iones de carga opuesta. La quimisorción sobre tales
superficies intenta ratificar esta situación, y en consecuencia ésta es a menudo iónica o al menos
fuertemente polar. Las moléculas cuyos electrones no son fácilmente polarizables son adsorbidas
débilmente sobre sólidos iónicos. La capacidad máxima de una superficie para una adsorción
química resulta mucho menor que la cantidad de adsorbato que necesitaría para formar una capa
mono molecular. Por el contrario, mediante la adsorción de Van der Waals es posible adsorber
cantidades mucho mayores, que llegan a formar capas cuyo espesor es de varias moléculas.
Como las variaciones de energía que acompañan la formación de enlaces químicos
son más grandes, las variaciones de entalpía que acompañan a la adsorción química son
valores fuertemente negativos, que se encuentran en el orden de –10 a –100 kcal/mol. La
variación de entalpía de la adsorción de Van der Waals es del mismo orden de magnitud que
el calor de condensación, es decir del orden de –5 a –10 kcal/mol. En consecuencia el efecto
de la temperatura de disminuir la cantidad de adsorbato es mayor en el caso de la adsorción
activada que para la adsorción física.
La entalpía de adsorción depende de la extensión de la superficie cubierta, principalmente porque las partículas adsorbidas interactúan. Si las partículas se repelen mutuamente
la entalpía de adsorción resulta menos exotérmica al aumentar el recubrimiento. Además, los
estudios de difracción de electrones de baja energía muestran que si las partículas de adsorbato
se repelen entre si se sitúan de un modo desordenado sobre la superficie hasta que las exigencias
del empaquetamiento requieren orden, en cambio si se atraen tienden a agruparse en islas.
Una diferencia muy general y significativa entre ambas adsorciones se encuentra en
la velocidad con que se alcanza el equilibrio. La adsorción química requiere un valor bien
definido de energía de activación que corresponde a un proceso lento, es decir de velocidades
de adsorción lentas, que en general son fuertemente afectadas por variaciones de temperatura, como sucede con las reacciones químicas.
Aunque se puede considerar que la adsorción de Van der Waals requiere cierta energía de activación, su valor es tan bajo que en general se puede suponer que el equilibrio es
alcanzado en forma instantánea en la interfase y que las velocidades de adsorción física observadas se deben en gran parte a los fenómenos de difusión que acompañan a la adsorción.
142
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
En un mismo sistema se pueden encontrar ambos tipos de adsorción, aunque es frecuente que la temperatura para la cual cada tipo resulta sea diferente. En general, la adsorción
de Van der Waals se reduce mucho a temperaturas que no son muy superiores a la temperatura crítica de la sustancia adsorbida. Al mismo tiempo, se necesitan en general temperaturas
mucho mayores para que la adsorción activada se produzca a una velocidad significativa.
Para un mismo componente se ha observado que existe más de un tipo de adsorción
activada simultánea sobre una misma superficie, presumiblemente debido a la existencia de
diversos tipos de centros activos. Estos diferentes tipos de adsorción activada pueden tener
eficiencias diferentes en diferentes intervalos de temperatura.
Por lo tanto, la adsorción de Van der Waals se caracteriza por tener altas velocidades
de adsorción a temperaturas bajas, grandes cantidades de material adsorbido, calor de formación pequeño y un grado de especificidad relativamente bajo. Por otra parte, la adsorción
activada o química se caracteriza por tener velocidades de adsorción bajas, energías de activación altas, pequeñas cantidades de material adsorbido, calor de formación elevado y un
alto grado de especificidad.
La extensión y naturaleza de su superficie son de fundamental importancia para la
eficiencia del sólido. En general es deseable que posea una gran superficie por unidad de
masa o de volumen y que esa superficie sea relativamente accesible a la masa del adsorbato
circulante, mediante poros o aberturas. Se puede aumentar la eficiencia del material adsorbente depositándolo sobre una superficie soporte de forma apropiada y gran superficie específica. El material adsorbente puede depositarse por impregnación con una solución, seguida
por secada y calcinación. La alúmina activada se usa ampliamente como soporte.
Descripción del proyecto y objetivos
Los catalizadores son de amplia aplicación industrial. El relativamente bajo costo
de los óxidos empleados, su alta estabilidad térmica y su posibilidad de reutilización por
desorción con aire a altas temperaturas hace que estos materiales tengan interés industrial en
reacciones a altas temperaturas donde debe aumentarse la eficiencia del catalizador, su vida
útil y versatilidad.
Existe muy poca información actualmente sobre el comportamiento de superficies
como los óxidos de metales de transición del primer período cuando se los somete a temperaturas entre 600 ºC y 1000 ºC, temperaturas a las que se trabaja normalmente en la industria,
y se los pretende utilizar como catalizadores en reacciones de interés industrial. La propuesta
de utilizar óxidos de metales como Vanadio (V), Cromo (Cr), Manganeso (Mn), Hierro (Fe),
Níquel (Ni), Cobalto (Co) y Molibdeno (Mo) se basa en su resistencia térmica y en sus diferentes propiedades en reacciones ácido-base y redox superficiales, además de las posibles
sinergias entre ellas. Se incorpora el Molibdeno, del segundo período, a los fines de establecer una comparación.
La capacidad de adsorción de los óxidos metálicos depende de la fortaleza de distintos tipos de centros básicos y del número de ellos que haya en la superficie. Esta capacidad
de adsorción de gases es función también de la temperatura, del tipo de gas que circula y del
flujo. Para determinar esta capacidad, estos sólidos, luego de prepararse, deben caracterizarse
antes y luego de su utilización a distintas temperaturas para evaluar las diferencias superficiales
existentes provocadas por la exposición a altas temperaturas y distintos tiempos. Esto permite
concluir para cada óxido las mejores condiciones de utilización en reacciones catalíticas que
INVENIO 14 (26) 2011: 141-154
143
Ignacio Daniel Coria
impliquen adsorción de gases como etapa previa. La caracterización implica la determinación
de Superficie BET, Difracción de Rayos X (DRX), análisis químicos por AAS para determinar
la cantidad de metal presente y Espectroscopía Fotoelectrónica de Rayos X (XPS).
Los objetivos del proyecto fueron los siguientes:
Objetivo general:
- Determinar la influencia de altas temperaturas sobre la actividad superficial de óxidos de metales de transición soportados.
Objetivos específicos:
- Determinar las variaciones en el área superficial de los distintos óxidos soportados
(Isoterma BET).
- Analizar cómo afecta la temperatura a la estructura cristalina de los óxidos analizados (DRX).
- Verificar variaciones en la energía de enlace metal – oxígeno para los óxidos soportados sometidos a diferentes temperaturas (XPS).
Metodología. Preparación y caracterización de catalizadores
Luego de la búsqueda bibliográfica, comenzaron las tareas de laboratorio en los meses de octubre y noviembre de 2007, durante los cuales los estudiantes pesaron las sales
correspondientes a los distintos metales de transición, calcinaron las sales obteniendo los óxidos, y calcinaron la g-alúmina en todos los casos a 600 ºC. Los óxidos obtenidos, soportados
sobre alúmina, fueron enviados para análisis.
Los óxidos preparados son los de V, Cr, Mn, Fe, Ni, Co y Mo debido a su resistencia
térmica, ya que se los somete a las temperaturas con las que se trabaja normalmente en la industria. Se incorporó el Mo, que es del segundo período de transición, a efectos comparativos
respecto al resto, que son del primer período.
La capacidad de adsorción de gases por la superficie de los óxidos es función de la
temperatura, del tipo de gas que circula y del flujo. Para determinar esta capacidad, estos sólidos deben caracterizarse antes y después de su utilización a distintas temperaturas para evaluar las diferencias superficiales. La caracterización implica la determinación de superficie
BET, Difracción de Rayos X (DRX), análisis químicos para determinar la cantidad de metal
presente (absorción atómica, AAS) y Espectroscopía Fotoelectrónica de Rayos X (XPS).
La Difracción de Rayos X consiste en el estudio de las estructuras cristalinas, mientras que el análisis de superficie BET es la medición de la superficie específica de cada óxido.
La Espectroscopía Fotoelectrónica de Rayos X (XPS), por su parte, consiste en incidir con
radiación X sobre la muestra. Esta radiación es transferida a los electrones internos de los
átomos presentes como energía cinética. Cuando los electrones son emitidos, esta energía
cinética es medida por el equipo sabiéndose así las diferentes clases de átomos presentes en
la muestra (análisis cualitativo). El área bajo la curva en el proceso de deconvolución de los
picos obtenidos en el espectro nos brinda la relación cuantitativa entre las diferentes clases
de átomos existentes en la superficie.
Los análisis de superficie BET y Difracción de Rayos X se realizaron en los laboratorios de la Facultad de Ingeniería Química de la Universidad Nacional del Litoral (Santa Fe,
Argentina), mientras que los de Espectroscopía Fotoelectrónica de Rayos X y Espectroscopía
de Absorción Atómica, en el laboratorio de la Facultad de Ciencias de la Universidad Nacional de Educación a Distancia (Madrid, España).
144
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
Resultados de volumen de poro, distribución de tamaño de poro y superficie BET de los óxidos preparados
Para la determinación del área de superficie BET es deseable que los óxidos preparados tengan una alta superficie específica, la cual puede alcanzarse haciendo el tamaño de
partícula muy pequeño y empleando material poroso, formando un gran número de canales
muy finos o poros a través de las partículas. Para poros cilíndricos uniformes no intersectados, la relación entre el área superficial interna (S), el volumen del poro (Vp) y el radio de los
poros (r) está dado por S = 2 Vp/rp; los poros se dividen en tres grupos sobre la base de su
medida: los superiores a 50 mm son macroporos, aquellos entre 2 y 50 mm son mesoporos y
los menores que 2 mm son microporos.
El método estándar para la determinación del área de superficie interna de un material poroso con áreas de superficies mayores a 1–2 m2/g se basa en la adsorción de N2 a
la temperatura del N2 líquido (77 K). Cada molécula adsorbida ocupa un área comparable a
su proyección en un plano (16,2 Ä2). Al aumentar la presión, primero aumenta rápidamente
la adsorción de N2 y se estabiliza en una región en la cual ocurre la cobertura de monocapa
y luego a presiones relativamente altas de N2 ocurre el cubrimiento de nuevas capas por la
condensación de N2 líquido en los poros (isoterma típica de adsorción).
Se determinó la superficie específica por el método BET sobre muestras en el equipo volumétrico MICROMERITICS ASAP 2000. El gas de análisis utilizado fue nitrógeno. Las muestras de (0,5-0,7) g se desgasificaron a 200ºC durante 20–72 h en corriente de helio. La superficie
BET se determinó tomando datos a presiones relativas comprendidas entre 0,05 y 0,250.
Resumen de resultados de óxidos tratados a 600ºC
Distribución del tamaño de poro
Óxido de Cobalto (Co3O4)
INVENIO 14 (26) 2011: 141-154
145
Ignacio Daniel Coria
Comparación de superficie específica y diámetro medio de poro
Comparación de distribución de tamaño de poro
0,0055
Comparación de Distribución de Tamaños de Poros
0,005
GAMMA ALUMINA
0,0045
Ox V/Al2O3
0,004
Ox Mn/Al2O3
dV/dD (mL/g Å)
0,0035
Ox Fe/Al2O3
0,003
Ox Co/Al2O3
0,0025
Ox Ni/Al2O3
0,002
Ox Mo/Al2O3
0,0015
0,001
0,0005
0
0
50
100
150
200
250
300
Diámetros (Å)
Comparación de superficie específica, diámetro de poro y volumen de poro
146
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
Análisis de Difracción de Rayos X
Esta técnica sirve para el estudio de las diferentes transformaciones de fase, así como
para la determinación de las distintas estructuras cristalinas y el tamaño medio de cristal
obtenido. La forma de los datos de Difracción de Rayos X que se obtienen de los polvos
sometidos a estudio depende de la estructura que los cristales adopten. Esta estructura está
definida por el tipo de celda, clase de cristal y la distribución de los diversos tipos de iones y
moléculas que forman la celda unitaria.
El número y posiciones, en términos de 2q, de las reflexiones dependientes de los
parámetros celulares, clase de cristal, tipo de estructura de la celda y longitud de onda usada
para colectar los datos, mientras que la intensidad de los picos depende del tipo de átomos
presentes y sus posiciones. Como resultado de una enorme variación de diferentes estructuras que adoptan los materiales, casi todos los sólidos cristalinos tienen un único patrón de
difracción en términos de las posiciones de las reflexiones observadas y el pico intensidad.
La efectividad de la Difracción de Rayos X la ha transformado en la técnica más usada para
la caracterización de sólidos inorgánicos policristalinos.
La caracterización por Difracción de Rayos X de las muestras de óxido de cobalto,
óxido de cromo, óxido de hierro, óxido de manganeso, óxido de molibdeno, óxido de níquel y
óxido de vanadio se realizó en un equipo marca Shimadzu con radiación CuKa (l = 1,542Ǻ),
voltaje de 30 kV y corriente de 40 mA. Se utilizó el modo de escaneo continuo con un tiempo
prefijado de 1.0 segundo (1 muestreo por segundo).
La técnica utilizada fue la siguiente:
- se preparó una pastilla del óxido sobre un portamuestras de vidrio con una ventana
circular de vidrio rugoso donde se forma la pastilla con ayuda de una espátula,
- se escanea la muestra con una velocidad de barrido de 4º por minuto entre 10º y 100º
(ángulo 2q),
- se identifica la zona donde se encuentran los picos principales y se realiza un barrido
en dicha zona con una velocidad de 2º por minuto,
- se procesa el difractograma obtenido para determinar los d (distancia interplanar de
los cristales) característicos de un compuesto y su intensidad relativa,
- se compararon el difractograma de la muestra con cartas patrones de difracción de los compuestos halladas en bibliografía, a fin de identificar la muestra usando los picos principales.
Análisis de muestras sometidas a 600ºC
Óxido de cromo
INVENIO 14 (26) 2011: 141-154
147
Ignacio Daniel Coria
Análisis de muestras sometidas a 700ºC
Óxido de cromo
Análisis de muestras sometidas a 900ºC
Óxido de cromo
Análisis químico por Espectroscopía de Absorción Atómica (AAS)
El estudio espectroscópico de átomos o de iones elementales con radiación ultravioleta y
visible sólo se puede hacer en fase gaseosa, que es donde los átomos se encuentran bien separados
entre sí. Por eso el primer paso en todos los procesos espectroscópicos atómicos es la atomización,
proceso por el cual la muestra se volatiliza y descompone de forma que produce un gas atómico.
La AAS se basa en la atomización por llama: la radiación, emitida en rayas, procedente de un tipo especial de fuente externa atraviesa el cono interior de la llama, en la cual
se encuentran las especies atómicas existentes resultantes de la volatilización de la muestra,
pasa a través de un monocromador y llega a la superficie de un detector de radiación. Se usan
fuentes que emiten rayas de radiación, de la misma longitud de onda que el pico de absorción
del analito. Típicamente, el espectro de absorción de la radiación procedente de la fuente externa por las especies atómicas existentes en la llama presenta la forma de una serie de picos
estrechos (líneas o rayas) que resultan de transiciones de un electrón desde el estado fundamental a un nivel energético superior. Los espectros de absorción de los átomos de metales
alcalinos son mucho más sencillos que los de elementos con varios electrones externos. Los
148
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
espectros metálicos de los metales de transición se caracterizan por tener muchas rayas, que
en algunos elementos pueden llegar a miles.
La absorción de radiación visible por los 18 elementos de las dos primeras series de
transición se debe a transiciones de electrones entre orbitales d llenos y vacíos. Las diferencias de
energía entre los orbitales d (y por lo tanto la posición correspondiente de los picos de absorción)
depende del estado de oxidación del elemento y de su posición en la tabla periódica. Las líneas de
absorción son típicas para cada átomo. Por tanto, esta técnica da información sobre la identidad
y concentración de átomos en una muestra, independientemente de cómo están combinados. La
AAS es una técnica que permite determinar cuantitativamente la composición atómica.
Análisis por XPS
Consiste en incidir con radiación X sobre la muestra. Esta radiación es transferida a
los electrones internos de los átomos presentes como energía cinética. Cuando los electrones
son emitidos, esta energía cinética es medida por el equipo sabiéndose así las diferentes clases de átomos presentes en la muestra (análisis cualitativo). El área bajo la curva en el proceso de deconvolución de los picos obtenidos en el espectro nos brinda la relación cuantitativa
entre las diferentes clases de átomos existentes en la superficie.
La técnica XPS permite detectar cuali- y cuantitativamente qué átomos y cuántos hay
en una superficie y el estado de oxidación de los mismos. Es el método de caracterización de
superficies más utilizado en la actualidad. La razón es que esta técnica genera un alto contenido de información y es flexible para ser utilizada en una gran variedad de muestras. Permite
la identificación de todos los elementos presentes, con excepción del hidrógeno y el helio.
La técnica está basada en el efecto fotoelectrónico, el cual consiste en la emisión de
electrones de la superficie de un sólido. En 1954, el Prof. Siegbahn propuso el primer espectrómetro electrónico de alta resolución para determinar electrones irradiando la superficie de
un sólido con Rayos X. En 1969, se realizó en Estados Unidos el primer instrumento XPS
monocromático comercial. XPS también es una técnica útil para caracterizar los enlaces
químicos y cuantificar la contaminación superficial generada en los procesos de fabricación.
Análisis de muestras sometidas a 600ºC
Catalizador sin utilizar. Óxido de cromo soportado. Barrido de todo el espectro
INVENIO 14 (26) 2011: 141-154
149
Ignacio Daniel Coria
Óxido de cromo. O1s
Análisis de muestras sometidas a 700ºC
Aclaración: Dado el alto costo de realización de los análisis por XPS, se decidió trabajar solamente sobre el óxido de cromo (a 700ºC y 900ºC), ya que de la bibliografía se desprende que
es el que tiene mejores aptitudes para su uso como retenedor de gases. La energía de unión
para el cromo en Cr2O3 es de 576,6 eV y para el O2, en la misma sustancia, 530,2 eV (National
Institute of Standards and Technology)1.
Óxido de cromo. O1s (véase Anexo 3, XPS 700C, Archivo 1)
150
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
Análisis de muestras sometidas a 900ºC
Óxido de cromo. O1s
Conclusiones
- En la siguiente tabla se sintetizan los resultados obtenidos en la caracterización de los óxidos soportados:
Óxido
soportado
Vanadio
V2O5
Estructura
cristalina
Orto-rómbica
BET
(600ºC)
168,94 m2/g
7,79 % (como V)
Cromo
7,62 % (como Cr)
Cr2O3
Romboédrica
165,00 m2/g
Manganeso
Hierro
Níquel
Cobalto
Molibdeno
g-alúmina
9,91% (como Mn)
8,49 % (como Fe)
9,87 % (como Ni)
10,40 % (como Co)
11,5 % (como Mo)
Mn2O3
Fe2O3
NiO
Co3O4
MoO3
Al2O3
Cúbica
Romboédrica
Cúbica
Cúbica
Orto-rómbica
Cúbica
164,35 m2/g
146,63 m2/g
171,34 m2/g
158,47 m2/g
117,72 m2/g
195,09 m2/g
AAS
DRX
BET
(otras temperaturas)
800ºC:
149 m2/g
900ºC:
124 m2/g
- La superficie específica del óxido de cromo se reduce significativamente cuando se incrementa la temperatura y el tiempo de exposición a la misma (véase tabla en el apartado 3.1.2.,
p. 12). No se pudo comprobar si ese comportamiento es general para los otros óxidos por las
razones que se exponen en el apartado 6.
- El análisis por AAS de los óxidos preparados indican que el porcentaje de metal obtenido
en el óxido está dentro de lo esperado (aproximadamente 10 %).
- En la siguiente tabla se sintetizan los resultados obtenidos por DRX:
INVENIO 14 (26) 2011: 141-154
151
Ignacio Daniel Coria
Óxido soportado
Cobalto
Hierro
Cromo
Manganeso
Níquel
Molibdeno
g-alúmina
Temperatura (en ºC)
700
900
700
900
700
900
700
900
700
900
700
900
700
900
Cristalinidad (%)
81,5
96,3
82,0
94,4
85,0
97,2
93,2
95,9
84,2
93,8
81,7
84,4
67,9
74,8
- El análisis por DRX indica que a medida que se incrementa la temperatura de tratamiento
aumenta el porcentaje de cristalinidad para todos los óxidos.
- El análisis XPS muestra que existe un incremento en la energía de enlace para el O1s del
óxido a medida que aumenta la temperatura de tratamiento (531 eV a 600ºC y 537 eV a
900ºC). Algo similar ocurre con el Cr2p (577eV a 600ºC y 583 eV a 900ºC). Esto indica que
es probable que haya dos especies, Cr2O3 y CrO3, en diferentes proporciones a medida que se
incrementa la temperatura, lo cual podría deberse a una oxidación del cromo desde +3 hasta
+6 en superficie. Esto podría explicar la diferencia que existe en el DRX del óxido de cromo
a 600ºC con el de 700ºC y 900ºC, atribuible a la presencia de más de un óxido a mayores
temperaturas.
- Los óxidos de metales de transición soportados en alúmina disminuyen su capacidad para
retener gases a medida que la temperatura se incrementa entre 600ºC y 900ºC y aumenta el
tiempo de tratamiento, dado que disminuye su superficie específica y existe reducción en el
tamaño de poros por cristalización, lo que disminuye la capacidad de adsorción de los óxidos
por fisisorción.
Reconocimiento
El autor agradece la participación de los alumnos Román V. Aríngoli, Romina N.
Astrada, Carolina Blanco, Julieta Delmoro, María Eugenia Di Vito, Evelina G. Forcadell,
Celina Gamerro, Evangelina M. Gómez, María F. Magadán, Rodrigo Maldonado Fernández, Jorgelina Montesanto, Agustina Leda Torné. Los mismos durante el ciclo lectivo 2007
cursaron tercer año de Ingeniería en Tecnología de los Alimentos, aprobaron el curso de
Metodología de la Investigación y se desempeñaron como asistentes de investigación, participando activamente en las tareas de laboratorio y en todas las que el proyecto requirió.
Recibido: 24/06/10. Aceptado: 23/11/10
152
INVENIO 14 (26) 2011: 141-154
Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición
NOTAS
1 Resultados de experiencias realizadas en 2009 en el Laboratorio de la Facultad de Ciencias de la UNED, Madrid.
Bibliografía
Anacleto, Nathaniel; Ostrovski, Oleg. “Solid-State Reduction of Chromium Oxide by Methane-Containing Gas”,
en Metallurgical and Materials Transactions B, August 2004, Vol. 35, nº 4, pp. 609-615.
Balint, Ioan; Miyazaki, Akane; Aika, Ken-Ichi. “The relevance of Ru nanoparticles morphology and oxidation state
to the partial oxidation of methane”, en Journal of Catalysis, November 2003, Vol. 220, nº 1, 15, pp. 74-83.
Chen, C.-L.; Wang, C.-H.; Weng, H.-S. “Supported transition-metal oxide catalysts for reduction of sulfur dioxide
with hydrogen to elemental sulfur”, en Chemosphere, August 2004, Vol. 56, nº 5, pp. 425-431.
Dunn, Joseph P.; Stenger, Harvey G.; Wachs, Israel E. “Oxidation of SO2 over Supported Metal Oxide Catalysts”,
en Journal of Catalysis, January 1999, Vol. 181, nº 2, pp. 233-243. Academic Press.
Dunn, Joseph P.; Stenger Jr, Harvey G.; Wachs, Israel E. “Oxidation of sulfur dioxide over supported vanadia
catalysts: molecular structure – reactivity relationships and reaction kinetics”, en Catalysis Today, June 1999, Vol.
51, nº 2, pp. 301-318.
Hartmann, N.; Biener, J.; Madix, R.J. “Monitoring the interaction of sulfur dioxide with a TiO2(110) surface at
300 K by scanning tunneling microscopy”, en Surface Science, May 2002, Vol. 505, nº 1-3, pp. 81-93.
Flytzani-Stephanopoulos, Maria; Tianli Zhu; Yue Li. “Ceria-based catalysts for the recovery of elemental sulfur
from SO2-laden gas streams”, en Catalysis Today, November 2000, Vol. 62, nº 2-3, pp. 145-158.
Laperdrixa, E.; Sahibed-Dinec, A.; Costentinb, G.; Saura, O.; Bensitelc, M.; Nédezd, C.; Mohamed Saade, A. B.;
Lavalley, J. C.. “Reduction of sulfate species by H2S on different metal oxides and promoted aluminas”, en
Applied Catalysis B: Environmental, April 2000, Vol. 26, nº 2, pp. 71-80.
Mowery, Deborah L.; McCormick, Robert L.. “Deactivation of alumina supported and unsupported PdO methane
oxidation catalyst: the effect of water on sulfate poisoning”, en Applied Catalysis B: Environmental, November
2001, Vol. 34, nº 4, 28, pp. 287-297.
Paik, Sang Cheol; Chung Jong Shik. “Selective catalytic reduction of sulfur dioxide with hydrogen to elemental
sulfur over Co---Mo/Al2O3”, en Applied Catalysis B: Environmental, February 1995, Vol. 5, nº 3, pp. 233-243.
Paik, Sang Cheol; Chung, Jong Shik. “Selective hydrogenation of SO2 to elemental sulfur over transition metal
sulfides supported on Al2O3”, en Applied Catalysis B: Environmental, May 1996, Vol. 8, nº 3, pp. 267-279.
Smirnov, M.Y.; Kalinkin A.V.; Pashis A.V.; Sorokin A.M.; Noskov A.S.; Bukhtiyarov V.I.; Kharas K.C.; Rodkin
M. A. “Comparative XPS Study of Al2O3 and CeO2 Sulfation in Reactions with SO2, SO2 + O2, SO2 + H2O, and
SO2 + O2 + H2O”, en Kinetics and Catalysis, July 2003, Vol. 44, nº 4, pp. 575-583.
Solymosi, F.; Raskób, J.; Pappb, E.; Oszkób, A.; Bánságib, T. “Catalytic decomposition and oxidation of CH3Cl
on Cr2O3-doped SnO2”, en Applied Catalysis A: General, October 1995, Vol. 131, nº 1, pp. 55-72.
Tsyrulnikovb, P. G.; Kovalenkob, O. N.; Goginb, L. L.; Starostinab, T. G.; Noskova, A. S.; Kalinkinb, A. V.;
Krukovab, G. N.; Tsybulyab, S. V.; Kudryab, E. N.; Bubnovb, A. V. “Behavior of some deep oxidation catalysts
under extreme conditions. 1. Comparison of resistance to thermal shock and SO2 poisoning”, en Applied Catalysis
A: General, February 1998, Vol. 167, nº 1, pp. 31-37.
Wang, C.-H.; Lin, S.-S. “Study on Catalytic Incineration of Methane Using Cr2O3/gamma-Al2O3 as the Catalyst”,
en Journal of Environmental Science and Health Part A: Toxic Hazardous Substances and Environmental Engineering, 2004, Vol. 39, nº 6, pp. 1631-1642.
Wang, Ching-Huei; Lin, Shiow-Shyung; Sung, Pei-Chang; Weng, Hung-Shan: “Catalytic reduction of SO2 over
supported transition-metal oxide catalysts with C2H4 as a reducing agent”, en Applied Catalysis B: Environmental, February 2003, Vol. 40, nº 4, pp. 331-345.
Waqifa, M.; Pieplua, A.; Saura, O.; Lavalleya, J. C.; Blanchardb, G. “Use of CeO2---Al2O3 as a SO2 sorbent”, en
Solid State Ionics, February 1997, Vol. 95, nº 1-2, pp. 163-167.
Watson, Junko M.; Ozkan, Umit S. “Spectroscopic characterization of surface species in deactivation of sol–gel
Gd–Pd catalysts in NO reduction with CH4 in the presence of SO2”, en Journal of Catalysis, July 2003, Vol.
217, nº 1, pp. 1-11.
Wang, Xiang; Xie, You-Chang: “Total oxidation of CH4 on Sn-Cr composite oxide catalysts”, en Applied Catalysis B: Environmental, December 2001, Vol. 35, nº 2, pp. 85-94.
INVENIO 14 (26) 2011: 141-154
153
Ignacio Daniel Coria
Xiao, L.; Sun, K.; Yang, Y.; Xu, X. “Low-Temperature Combustion of CH4 over CeO2–MOx Solid Solution (M =
Zr4+, La3+, Ca2+, or Mg2+”, en Catalysis letters, June 2004, Vol. 95, nº 3-4, pp. 151-155.
Zhangl, Xunli; Hayward, David O.; Lee, Colleen; Mingos, D. M. P.. “Microwave assisted catalytic reduction of
sulfur dioxide with methane over MoS2 catalysts”, en Applied Catalysis B: Environmental, September 2001,
Vol. 33, nº 2, pp. 137-148.
Zhu, Tianli; Kundakovic, Ljijana; Dreher, Andreas; Flytzani-Stephanopoulos, Maria. “Redox chemistry over
CeO2-based catalysts: SO2 reduction by CO or CH4”, en Catalysis Today, April 1999, Vol. 50, nº 2, pp. 381-397.
Zhu, Tianli; Dreher; Andreas; Flytzani-Stephanopoulos, Maria. “Direct reduction of SO2 to elemental sulfur by
methane over ceria-based catalysts”, en Applied Catalysis B: Environmental, June 1999, Vol. 21, nº 2, pp. 103120.
154
INVENIO 14 (26) 2011: 141-154
RESEÑA BIBLIOGRÁFICA
GAGLIARDI, RAÚL. Gestión de la educación técnica profesional. Formación de competencias profesionales. Capacitación directiva para la formación de jóvenes autónomos. Buenos Aires – México, NOVEDUC, 2008.
En este libro, el Dr. Gagliardi, centra su atención en los cambios requeridos en las escuelas técnicas y de formación profesional para mejorar la formación apuntando a facilitar la
inserción laboral y profesional en el mercado de trabajo de los graduados; como así también
su capacidad para generar emprendimientos propios.
El autor manifiesta su preocupación al abordar el tema de hallar un modo en el que
los estudiantes se apropien de los conocimientos fundamentales y desarrollen las competencias que necesiten para generar autonomía e insertarse en el mercado de trabajo, capitalizando el máximo de sus recursos personales para mejorar su calidad de vida y contribuyendo a
la intención de constituirse en mejores ciudadanos.
El libro hace referencia a lo que Gagliardi considera un fenómeno que podría provocar graves problemas sociales: la inadecuación entre la oferta de trabajo y la oferta de empleo, como así también la incapacidad de los sistemas de formación técnica profesional para
lograr el acceso de los graduados a empleos actuales y a los futuros cambios en las empresas
(a las nuevas condiciones de producción, y nuevas técnicas) y el mercado laboral.
Subraya la importancia de la formación de los jóvenes sin empleo ni estudios para
evitar que se desarrollen en una “cultura de la miseria”, la cual conlleva a la caída de los
jóvenes en la violencia y adicciones. Propone como actividad sistemática y organizada en
las escuelas, investigar las concepciones y los estilos de aprendizaje de los estudiantes para
favorecer la enseñanza y mejorar la calidad del aprendizaje.
Enfatiza la importancia de tomar en cuenta la capacidad de los directores, administradores y profesores de las escuelas técnicas para obtener la información adecuada acerca
del mercado de empleo y los problemas que padecen los estudiantes.
Destaca la figura del director, como líder del personal de la escuela y de los diferentes objetivos y diversos niveles de necesidades de la misma; dejando en claro que liderar no
implica mandar, sino orientar, guiar, apoyar a cada miembro del personal.
En sus páginas, el autor hace mención a la escuela técnica como un sistema abierto
en permanente intercambio y adaptación al entorno social, económico y cultural, acentuando
el importante rol social de la misma como alternativa para los jóvenes de la comunidad en la
que se encuentra inserta y como elemento para el desarrollo y disminución de la pobreza en
la misma. Por otra parte, menciona algunos de los métodos que existen para determinar las
competencias profesionales y el modo de desarrollarse en los ámbitos educativos técnicos
como así también se analizan las competencias de comportamiento.
Finalmente aborda los modelos pedagógicos que pueden seguirse en una escuela técnica y profesional como así también, las competencias generales de los profesores y ofrece
dos propuestas de autoevaluación que podrían funcionar como herramientas de reflexión y
planificación del proyecto institucional y del trabajo desarrollado en el aula.
María Verónica López Romorini.
Becaria doctoral. IRICE-CONICET.
lopezromorini@irice-conicet.gov.ar
INVENIO 14 (26) 2011: 163
155
156
PENSAMIENTOS DE JOHN WESLEY
Iniciador del Movimiento Metodista
Qué es ser completamente cristiano1
“Si se pregunta: ¿Qué… se requiere para ser completamente cristiano?,
respondo: En primer lugar, amar a Dios. Porque así dice su Palabra: Amarás al
Señor tu Dios con todo tu corazón, y con toda tu alma, y con toda tu mente y con
todas tus fuerzas” (Mr. 12,30).
Tal amor de Dios hinche el corazón: se posesiona de todos los afectos,
llena el alma a plenitud, y emplea todas sus facultades hasta el máximo.
La segunda señal del verdadero cristiano es el amor al prójimo. Porque
así lo dice el Señor en las siguientes palabras: “Amarás a tu prójimo como a ti
mismo” (Mt. 22,39). Si alguien pregunta ¿Quién es mi prójimo?”, le respondemos: “Toda persona en este mundo: todo hijo del Padre de los espíritus y de toda
carne” (He. 12,9).
Hay todavía una cosa más que se requiere para ser completamente cristiano. Esta merece consideración aparte, aunque en realidad no puede separarse
de lo que antecede. Se trata del fundamento de todo, la fe… Esta es la victoria
que vence al mundo, nuestra fe (I Jn 5.4). Sí, el Señor mismo declara que el que
cree en el Hijo tiene la vida eterna (Jn, 3.36) y no vendrá a condenación, mas ha
pasado de la muerte a la vida (Jn. 5.24).
En esto que nadie engañe a su propia alma. Ha de notarse que la fe que no
produce arrepentimiento, amor y buenas obras no es la fe viva y verdadera de que
hablamos aquí sino una fe muerta y diabólica… Porque hasta los demonios creen
que Cristo nació de una virgen, que hizo toda suerte de milagros, declarando que
era Dios mismo.
Utilizando el lenguaje de nuestra propia Iglesia, la correcta y verdadera
fe cristiana no consiste sólo en creer que las Sagradas Escrituras y los Artículos
de Fe dicen verdad, sino también en tener una plena seguridad y completa certeza
de que Cristo nos salva de la condenación eterna. Es la plena seguridad y completa certeza que alguien tiene de que por los méritos de Cristo sus pecados son
perdonados, y uno es reconciliado con Dios. Y de ello surge un corazón amante
dispuesto a obedecer sus mandamientos.
Ahora bien, no es casi, sino completamente cristiano todo aquel que tenga esta fe que purifica el corazón (Hch. 15, 9) y que obra por amor (1 Jn. 1,9).
¿Tienes escrito en tu corazón el mandamiento: “El que ama a Dios, ame
también a su hermano”? ¿Amas entonces a tu prójimo como a ti mismo? ¿Amas
a todos como a tu propia alma, inclusive a tus enemigos y hasta los enemigos de
Dios? ¿Les amas como Cristo te amó? Sí, ¿crees que Cristo te amó a ti, y que se
entregó a sí mismo por ti?
Citado de WESLEY, J. Obras. Franklin (Tennessee), Providence House Publisher, 1996, Tomo I, pp.
46-51.
INVENIO 14 (26) 2011: 157
157
UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO
UCEL
FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES
Contador Público. Duración: 4 años.
Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas.
Licenciatura en Administración de Empresas. Duración: 4 años.
Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas.
Licenciatura en Economía. Duración: 4 años.
Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Administración de Empresas.
Licenciatura en Relaciones Laborales. Duración: 4 años.
Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Relaciones Laborales.
Licenciatura en Comercialización. Duración: 4 años.
Al finalizar el primer cuatrimestre de tercer año se obtiene el título de Analista Universitario en Comercialización.
Licenciatura en Administración Hotelera. Duración: 4 años.
FACULTAD DE QUÍMICA
Ingeniería en Tecnología de los Alimentos: Duración: 5 años.
Al finalizar el tercer año se obtiene el título de Técnico Universitario en Alimentos
Licenciatura en Nutrición. Duración: 5 años.
Al finalizar el tercer año se obtiene el título de Técnico Universitario en Nutrición.
Ingeniería en Sistemas. Duración: 5 años
Al finalizar el tercer año se obtiene el título de Analista Universitario en Sistemas.
FACULTAD DE CIENCIAS JURÍDICAS Y SOCIALES
Derecho. Abogado. Duración: 5 años.
Licenciatura en Lengua y Literatura Inglesas. Duración: 4 años.
Martillero Público. Duración: 3 años.
PROFESORADO DOCENTE UNIVERSITARIO en la especialidad. Duración: 1 año
MAESTRÍA en Relaciones Laborales y en Recursos Humanos. Duración: 2 años.
158
INVENIO
NORMAS PARA LA PRESENTACIÓN DE COLABORACIONES
1. Todos los trabajos deben ser inéditos, salvo caso de excepción aprobada por el Consejo de Redacción de INVENIO, y mediando la autorización del anterior editor, con constancia a la vista presentada al Secretario de Redacción de INVENIO, teléfono: 54–341-4499292 o al 54–341–4261241;
e-mail: publicaciones@ucel.edu.ar o bien a: daroswr@yahoo.es
2. Las colaboraciones serán sometidas a una evaluación preliminar por parte del Consejo de Redacción,
el cual designará los evaluadores anónimos, expertos en el tema. Todo original será sometido al
proceso de dictamen por pares académicos (especialistas), preferentemente bajo la modalidad doble
ciego. La evaluación tendrá en cuenta la relevancia del tema, la calidad de la argumentación o prueba
si fuese el caso, y la adecuación de la bibliografía citada. Los evaluadores se expresarán críticamente
mediante un dictamen que expresará la sugerencia de la publicación sin modificaciones, o bien con
modificaciones a criterio del autor del artículo o del dictaminador; o bien como no publicable.
3. El Consejo de Redacción de INVENIO, realizada la evaluación anónima de asesores académicos,
se reserva el derecho de aprobar los trabajos para su publicación o rechazarlos y de determinar en
qué número y sección habrán de publicarse. El Consejo, una vez en posesión de las respectivas
evaluaciones, procederá a confeccionar el informe final sobre el cual se fundamentarán las decisiones por tomar: a) aprobación; b) solicitar modificaciones al/los autor/es; c) rechazo. Si la colaboración fuese rechazada, el autor recibirá el informe que produjo tal decisión. En ese caso, el autor
podrá apelar la medida fundamentando su disconformidad.
4. La publicación, una vez aprobada por la Dirección y por el arbitraje anónimo de pares asesores,
se realizará sin cargo para los autores; cada autor recibirá gratuitamente 3 (tres) ejemplares de la
revista donde aparece su artículo. Los autores ceden el derecho de autor por el hecho mismo de que
se haya publicado en INVENIO.
5. Las colaboraciones deben ser entregadas conjuntamente en soporte papel y soporte informático,
ambos con las siguientes condiciones:
a) Texto del artículo (incluyendo notas y bibliografía) impreso en hojas tamaño A4 simple faz,
insertando los gráficos, mapas, tablas y cuadros si los hubiere, en lo posible en Word, Times
New Roman, punto 12, interlineado sencillo. Los materiales entregados por los autores no
serán devueltos. Los artículos no deberían superar las 15 páginas.
b) Resumen o compendio del artículo, con un máximo de cien (100) palabras, después del título
del artículo y del nombre del autor. Se agradecerá el aporte de la terminología técnica de la
disciplina en idioma inglés para facilitar la tarea de traducción del abstract.
c) Currículum del autor o autores, cien (100) palabras como máximo por cada uno, impreso en
hoja tamaño A4 simple faz y aparte.
6. La bibliografía (referida a Internet, artículos y libros) se redactará siguiendo estos ejemplos:
- García, Walter. “Equivocidad de la autonomía y los fines de la educación” en Thèmes (Burdeos, Francia), revista (o página) on line: http://perso.wanadoo.fr/b.p.c./ Année 2002, VII,
(10/12/04)
- Miles, Simon. “Charles Darwin and Asa Gray Discuss. Teleology and Design” en Perspectives
on Science and Christian Faith. 2001, Vol. 53, nº 3, p. 197. (En la bibliografía final, se cita el
inicio y final de páginas del artículo: pp. 197-233).
- Darwin, Charles. The Correspondence of Charles Darwin. Cambridge, University Press, 1993.
Secretaría de Redacción de INVENIO
159
Consejo Editorial Académico (continúa)
Dra. Denise Giacomo
Dr. Roberto A. Miranda
Dra. María de los Ángeles Sagastizabal
Nutricionista. Doctora en Salud Pública.
Catedrática e Investigadora. UNIMEP, Brasil.
Catedrático e Investigador. UNR. CONICET.
Investigadora CONICET. Dra. Ana M. Romano Carrâo
Doctora en Ciencias Sociales. Magister en
Administración. Piracicaba, Brasil.
Dr. Ernesto Gore
Doctor por la UBA. Master of Sciences (Oregon,
EE.UU).
Profesor visitante de Harvard University y en el ESCP
y AEP de París. Catedrático en la UdeSA.
Dra. Vênia Leandro Merhi
Mg. André Sathler Guimarâes
Dr. Santiago Gastaldi
Nutricionista. Doctora en Ciencias Médicas.
Catedrática e Investigadora en la Universidad Metodista de Piracicaba, Brasil. Economista. Magister en Gerenciamiento de Sistemas.
UNIMEP, Brasil.
Economista. Catedrático UNRC.
Mg. Emilio A. Amstalden
Maestría en Administración de Recursos Humanos. Universidad Metodista. Piracicaba. Brasil.
Dr. Rodolfo Rossi
Dr. en Ciencias Económicas. Ex presidente del Banco
Central. Argentina. ESEADE.
Dra. Teresa Cauzzi
Doctora en Historia. Investigadora.
Directora de Centros de Investigación.
Dr. Ivo Sarjanovic
Economista. Vicepresidente de World Trading Unit
(Cargill International). Ginebra. Suiza.
Dr. Mario Saccone
Doctor en Jurisprudencia. Director de Carrera de
Posgrado: Facultad de Derecho (UNR).
Miembro de la International Fiscal Association.
Dra. Cristina Elgue
Ex Decana de la Escuela de Lenguas, UNC.
Directora de posgrado.
Dra. Claudia R. Cavaglieri
Doctorada en Ciencias, Sâo Paulo, Brasil.
Posdoctorado en Southampton, Inglaterra.
CPN Enrique Lingua
Contador Público Nacional (UNR). Coordinador
del Comité Impositivo-Previsional y Asesor Impositivo de la Bolsa de Comercio de Rosario.
Dr. Gustavo Romero
Doctor en Física. Investigador del CONICET.
Presidente de la Asociación Argentina de Astronomía
160
La Universidad del Centro Educativo La­tinoa­me­ricano integra una
Institución Evan­gé­lica Metodista al servicio de la comunidad desde 1875. La UCEL tiene su origen en la iniciativa del Pastor Tho-
ISSN 0329-3475
Rosario • Argentina • Año 14 Nº 26 •JUNIO 2011
UCEL - GRADUACIÓN 2010
REVISTA DE INVESTIGACIÓN ACADÉMICA
UNIVERSIDAD DEL CENTRO EDUCATIVO LATINOAMERICANO
Rosario • Argentina • Año 14 • Nº 26 • JUNIO 2011
mas B. Wood, destacado educador y ministro de la Iglesia Metodista en la Argentina, quien se propuso fundar una escuela moderna
hacia 1871. La misma abrió sus puertas el 28 de mayo de 1875
conducida por las maestras Louise Denning y Jennis Chapin, con
el respaldo activo del Pastor Wood, y así se inició el actual Centro
Educativo Latinoa­mericano. Por más de un siglo la institución fue
creciendo y en el año 1993 inauguró sus cursos la Universidad.
UCEL es una universidad joven pero sus raíces se nutren en una
tradición y procura brindar a sus estudiantes la mejor vía y las
más actuales herramientas para encarar con seriedad y solvencia
los desafíos que se vislumbran, ante el vértigo de los cambios
extraordinarios en la tecnología aplicada al desarrollo de los pueblos. La misión consiste en abrir, recorrer y enseñar las buenas
sendas que llevan hacia un futuro promisorio.
Universidad del Centro Educativo Latinoamericano con autorización definitiva otorgada
por el decreto Nº 979/06 de acuerdo con la Ley 24.521 de Educación Superior
Av. Pellegrini 1332 - S2000BUM Rosario - Argentina
Internet: www.ucel.edu.ar / e-mail: sec@ucel.edu.ar
INVENIO
historia educacional de prestigio. UCEL trata de hacer honor a esa
El gran diseño
Consumo de fibra alimentaria
El derecho como ciencia
Circularidad, arbitrariedad
y regreso infinito de razones
Una mirada argentina
a la economía brasileña
La creatina en la performance
deportiva
La “batalla de las monedas”
Difusión de tics en las pymes
Dehidrocongelación de frutas
Pizzas con harina de grano
entero de sorgo y mijo
Variación de las propiedades
superficiales a altas temperaturas
Descargar