25 de diciembre de 2011

El deporte “profesional”, una trampa

El deporte “profesional”, una trampa
Percy Cayetano Acuña Vigil

Sostenemos que en la actualidad lo que se considera deporte es un producto tramposo que desorienta y causa grave daño social. En nuestro concepto debemos remitirnos a las enseñanzas del deporte clásico y aprender de él para volverlo útil a la sociedad.



Una de las expresiones que me llama la atención por decir lo menos es la de “deporte profesional”. Si existe el deporte profesional es, porque hay deportistas profesionales: gente que dedica su vida (o parte de ella) a la práctica remunerada del deporte. Y la clave está ahí, en la remuneración. Quedan lejos los tiempos en que el deporte estaba relacionado con el ocio, con el tiempo libre, con el juego y la diversión.

Ahora el deporte es otra cosa: la competición es negocio. Los clubes son empresas y los deportistas trabajadores. ¿Dónde está el origen de esta transformación? ¿Cómo es posible que una diversión se convierta en una profesión de la que puedan vivir muchos seres humanos?

La clave explicativa está, entre otras cosas, en el dinero que mueve el deporte gracias a los medios de comunicación. La masificación del deporte a través de la prensa, la radio y la televisión es la causante de su profesionalización.

El deporte no es ya sólo deporte, sino que tiene que ser espectáculo y espectáculo para ganar dinero, para el negocio. Esta situación ha desnaturalizado al deporte, esta desnaturalización está ya naturalizada, normalizada. De este modo es normal que los niños respondan, cuando se les pregunta qué quieren ser de mayores, lo que todos hemos oído más de una vez: “futbolista”, lo que revela pobreza trágica en su formación y educación.

Estas respuestas son producto del circo televisivo, aquel que viene marcado por la publicidad, la venta de camisetas o las presiones mediáticas, y especialmente porque surgen en un medio en donde la pobreza en términos económicos encuentra en esta actividad su caldo de cultivo, frente a actividades productivas de mayor trascendencia y valor.

El deporte como una forma de perfeccionamiento humano es muy distinto a todo lo que estamos viendo, puro negocio. En este contexto mercantil ya no es noticia que los atletas sufran a posteriori de una salud quebradiza, pues la naturaleza les termina pasando una factura cuando no se han tomado las previsiones necesarias.

Qué distinto un deporte que mejora la salud, en definitiva, la vida, a el que se ha impuesto, que termina destruyéndola, y que viene marcado por los índices de audiencia y los patrocinadores de los grandes fichajes.

En el deporte clásico, los griegos problematizaron por primera vez un dominio ético que incluía al cuerpo y los placeres para articularlo con el campo de la política en un contexto bien delimitado, el de la polis.

El dominio de sí constituía una virtud privada que se proyectaba en lo público: el ciudadano capaz de llevar una vida equilibrada, que no caía en los excesos propios de las inculturas, estaba en condiciones de competir para el acceso a los cargos políticos. Es decir, la adquisición de la temperancia (enkrateia) era necesaria para la formación del hombre libre como también para la formación del ciudadano que se preparaba para gobernar a los demás.


Durante el siglo clásico asistimos al despliegue de una voluntad de auto estilización, que surgió en la aristocracia griega e incluyó prácticas tan disímiles como la retórica, el teatro, la filosofía, la música, el teatro y los juegos .

Los espacios públicos: el ágora, el teatro, los juegos constituían los lugares donde los jóvenes sobresalían en el ejercicio de la temperancia y se promocionaban para la vida política.
El entrenamiento del ciudadano virtuoso no se realizaba siguiendo un corpus sistemático sino que correspondía más bien a una estética de la existencia que definía lo esencial del hombre libre en su relación con la verdad.

En el contexto griego el culto del cuerpo se convirtió en un símbolo que designaba la superioridad de una clase que no se privó de proclamarse ante todos como tal. El cuerpo de los ejercicios, de los placeres, del juego era el cuerpo virtuoso de los políticos, de los filósofos, de los propietarios; en definitiva, no se trataba de otra cosa que de un cuerpo de clase, de esa única clase que para los griegos constituía "la humanidad plenamente humana y no mutilada".

En el deporte actual, más allá de todos los mecanismos que lo codifican , el placer - ya sea como práctica o espectáculo - está amplificado a un nivel jamás antes alcanzado. El mundial de fútbol, los play–off finales de la NBA, como la mayoría de los espectáculos del deporte son la ocasión para el despliegue de un virtuosismo creador y gozoso que disfrutan tanto los protagonistas como los espectadores que siguen dichos eventos.


Sin embargo se trata ahora del placer de contemplar el espectáculo que está ligado también al de adiestrar, cuidar, vigilar y controlar al animal. En una palabra: estos mecanismos tramposos anudan el poder al cuerpo y al goce, neutralizando a través de una sujeción estricta la potencia que tal anudamiento induce.

Referencias

1. M. Foucault. Microfísica del Poder. Ed. La Piqueta. Barcelona. 1987. M. Foucault. Historia de la Sexualidad. Tº 2.
2. Para dar cuenta de la naturaleza de los mecanismos específicos de dominación que se articulan con relación al fútbol. Desde esta perspectiva el fútbol actual  constituye una forma de represión de las pulsiones sexuales y una desviación de las mismas hacia la agresividad sádica. Constituye también - en tanto que formación de compromiso entre el mundo alienado del trabajo y las actividades recreativas - el instrumento más eficaz que prepara al individuo para el trabajo y lo aleja de la actividad ciudadana y política.
3. M. Foucault. Historia de la Sexualidad. Tº 2. El Uso de los Placeres. Siglo XXI Ed. México. 1986.
P. Veyne. El Imperio Romano. En Historia de la Vida Privada. Tº 1. p. 140.  M. Foucault.
4 M.  Foucault. Microfísica del Poder. Ed. La Piqueta. Barcelona. 1987.
 5.  Tal es el caso de las barras de vándalos antisociales, permitidas por la misma sociedad, quien las cubre con mascaras que entrampan las acciones por suprimirlas.

17 de diciembre de 2011

Natividad

Les deseo una feliz Navidad y un venturoso año nuevo

La Navidad es ante todo una fiesta religiosa. Hoy en día la religiosidad de nuestra sociedad está en un momento de crisis, y por tanto lo está también la Navidad. Originariamente transforma una fiesta pagana en una fiesta religiosa, pero es esa fiesta religiosa a la que se nos invita. Sólo desde una vivencia interior profunda podemos vivir la Navidad. Celebramos la victoria de la luz sobre las tinieblas, por ello es tiempo de celebración.


Botticelli, Natividad mística, 1500






8 de diciembre de 2011

Filosofía del lenguaje: Estado de la cuestión



Filosofía del lenguaje: Estado de la cuestión


En este escrito desarrollo un estado de la cuestión de la filosofía del lenguaje. Presento una descripción de los aportes principales en filosofía del lenguaje en general y luego hago referencia a lo que se ha denominado filosofía analítica en sus diferentes estilos.

El significado es un concepto fundamental para la filosofía del lenguaje. Las reflexiones en torno al lenguaje en multitud de ramas filosóficas están consideradas como pertenecientes a la filosofía continental. En casi todas estas disciplinas la idea de lenguaje es remitida al concepto de logos desarrollado en la filosofía griega antigua entendida como discurso o dialéctica. El lenguaje y los conceptos son observados como formando parte de la historia cultural.

En el campo de la hermenéutica, las reflexiones en torno al lenguaje han jugado un papel fundamental en el seno de la filosofía continental a lo largo de todo el siglo XX, en particular dentro de la línea de reflexión iniciada por Martin Heidegger con su propuesta de giro ontológico de la comprensión. Martin Heidegger combinó la fenomenología desarrollada por su maestro Edmund Husserl, la hermenéutica de Wilhelm Dilthey y gran cantidad de conceptos heredados de la filosofía de Aristóteles para desarrollar su concepción particular del lenguaje.

Dentro de los conceptos más importantes generados por Heidegger se encuentran el de Ser-en-el-mundo, (In-der-Welt-Sein). En su obra El ser y el tiempo  Heidegger construye sus filosofía del lenguaje en torno al concepto fundante de Ser-en-el-mundo, tal filosofía se centra en el habla, esto es, en el empleo que se realiza del lenguaje de forma cotidiana.

Hans Georg Gadamer popularizó estas ideas en su obra Verdad y método (Wahrheit und Methode, 1960) en la que proponía una ontología hermenéutica completa. En esta obra Gadamer considera que el lenguaje es "la esencia del ser humano" y que como tal es el medio a través del cual es posible que la comprensión tenga lugar en el ser humano, es más, todo lo que puede ser comprendido es lenguaje. Para Gadamer el mundo es constituido lingüísticamente y no puede existir nada más allá del lenguaje.

Otros filósofos que han trabajado desde la filosofía continental cuestiones relativas al lenguaje son: Jacques Derrida, Gilles Deleuze, Michel Foucault, Julia Kristeva, Walter Benjamin, Theodor Adorno o Herbert Marcuse.

Las ideas de la teoría del significado se asocian con la tradición británica empírica de Locke, Berkeley y Hume. Dicen que el contenido del significado es puramente mental, provocado por los signos. Sin embargo, esa visión del significado ha sido cuestionada por numerosos problemas desde el principio. La teoría de la verdad condicional se sostiene en qué condiciones tiene que tener una expresión para ser verdadera o falsa.

Los Teóricos del Uso entienden que el significado esté relacionado con actos de lenguaje y su particular pronunciación, no con la expresión en sí misma. Wittgenstein ayudó a crear esa idea del significado del uso.

El libro III del Ensayo sobre el entendimiento humano, de Locke, [ ] es la primera obra en la que se expone de forma sistemática las tesis semánticas basadas en el giro epistemológico cartesiano [ ].

Gottlob Frege, hizo varias contribuciones a la filosofía de influencia de la lengua. Las investigaciones sobre cómo el lenguaje interactúa con el mundo son llamados las teorías de referencia de Gottlob Frege, quien era un defensor de la teoría de referencia mediada. Frege ha dividido el contenido semántico de cada expresión en dos componentes: Sinn (generalmente traducido como "sentido") y Bedeutung (traducido como "significado", "denotación", "nominatum" y "de referencia", entre otros). El sentido de una oración es el pensamiento que expresa. Tal pensamiento es abstracto, universal y objetivo.

Bertrand Russell y Alfred North Whitehead desarrollaron el logicismo [ ] fallido de Frege e intentaron mostrar a su vez que las matemáticas son reducibles a principios lógicos fundamentales. Los “Principia Mathematica”[ ] (1910-1913) alentaron a varios filósofos a tomar un renovado interés en el desarrollo de la lógica simbólica.

Además, Russell adoptó la lógica como su herramienta filosófica primaria, una herramienta que pensó podía exponer la estructura subyacente de diversos problemas filosóficos. Bertrand Russell, En sus escritos posteriores, y por razones relacionadas con su conocimiento de la teoría de en epistemología, sostuvo que las expresiones referenciales son sólo directamente, lo que él llama, "lógicamente los nombres propios".

Más o menos de 1910 a 1930, filósofos analíticos como Russell y Ludwig Wittgenstein se enfocaron a crear un lenguaje ideal para el análisis filosófico que estaría libre de las ambigüedades del lenguaje ordinario que, según su visión, usualmente metía en problemas a los filósofos. En esta fase, Russell y Wittgenstein buscaron comprender el lenguaje, y por tanto los problemas filosóficos, haciendo uso de la lógica formal para formalizar las afirmaciones filosóficas.

 Wittgenstein desarrolló un sistema comprehensivo de atomismo lógico [ ] en su “Tractatus logico-philosophicus”. Ahí argumentó, que el mundo es la totalidad de los hechos, y los hechos pueden ser expresados en el lenguaje de lógica de predicados de primer orden. Así, el lenguaje es una “figura” del mundo que se puede construir expresando hechos atómicos en proposiciones atómicas ligándolas usando operadores lógicos.

El formalismo de Russell en los “Principia Mathematica” y Wittgenstein en el “Tractatus logico-philosophicus fue retomado por un grupo de pensadores en Viena y Berlín, quienes conformaron el Círculo de Viena y el Círculo de Berlín. Su doctrina se conoce como positivismo lógico. El positivismo lógico usa herramientas lógicas formales para sostener una explicación empirista de nuestro conocimiento del mundo. [ ]

Filósofos como Rudolf Carnap y Hans Reichenbach, junto con otros miembros del Círculo de Viena sostenían que las verdades de la lógica y las matemáticas eran tautologías [ ] y las de la ciencia eran aseveraciones empíricamente verificables. Estas dos constituían el universo entero de juicios con significado; cualquier otra cosa era un sinsentido.

En 1928, Carnap publicó dos libros importantes: La estructura lógica del mundo (En alemán: «Der logische Aufbau der Welt»), en el que desarrolló una versión formal rigurosa del empirismo, definiendo todos los términos científicos en términos fenomenalísticos.

En Pseudoproblemas de filosofía afirmaba que muchas preguntas filosóficas carecen de sentido, esto es, la manera en que eran planteadas suponían un abuso del lenguaje. Una implicación operacional de esta radical frase se tomó para eliminar la metafísica del discurso humano responsable. Es una posición conocida por la que Carnap fue principalmente conocido durante muchos años.

El libro que lo hizo el más famoso positivista lógico y miembro del Círculo de Viena, fue su Sintaxis lógica del lenguaje (Carnap, 1934). En esta obra, Carnap adelantó su principio de tolerancia, según el cual no existe algo que pueda llamarse lenguaje o lógica «correcto» o «verdadero». Uno es libre de adoptar la forma de lenguaje que le resulte útil a sus propósitos.

Después de la Segunda Guerra Mundial, la filosofía analítica dio un giro hacia el análisis del lenguaje ordinario. Este movimiento tuvo lugar en el auge de la filosofía tardía del en ocasiones llamado “segundo” Wittgenstein, la misma que se distancia en algunos puntos centrales de su primera filosofía.

En contraste con filósofos analíticos anteriores, quienes pensaban que los filósofos debían evitar las engañosas trampas del lenguaje natural construyendo lenguajes ideales, los filósofos del lenguaje ordinario sostuvieron que el lenguaje natural de hecho refleja un gran número de distinciones sutiles que suelen pasar inadvertidas en la formulación de teorías y problemas filosóficos tradicionales.

Mientras escuelas como el positivismo lógico se centraban en términos lógicos, supuestamente universales e independientes de factores contingentes como la cultura, el lenguaje, las condiciones históricas, etc., la filosofía del lenguaje ordinario enfatiza el uso del lenguaje que hacen los usuarios ordinarios. Los filósofos del lenguaje ordinario más prominentes durante los años cincuenta fueron Austin y Ryle, además del propio Wittgenstein.

A principios de la década de los cincuenta, el positivismo lógico había sido fuertemente desafiado por Wittgenstein en las “Investigaciones filosóficas”, por Quine en “Dos dogmas del empirismo” y por Wilfrid Sellars en “El empirismo y la filosofía de la mente”.

En los sesenta, tanto el positivismo lógico como la filosofía del lenguaje ordinario pasaron rápidamente de moda y la filosofía en lengua inglesa comenzó a incorporar un mayor rango de intereses, temas y métodos.

No obstante, hoy día la mayoría de los filósofos de Estados Unidos, Reino Unido y Australia se consideran a sí mismos “filósofos analíticos” [ ]. En gran medida la noción de “filosofía analítica” se extendió desde los programas específicos que dominaron la filosofía anglófona antes de 1960 a una noción mucho más general de “estilo analítico”, caracterizado por la precisión y profundidad con respecto a un tema limitado y en oposición a “discusiones imprecisas y arrogantes sobre temas muy amplios”.

Esta interpretación de la historia no es universalmente aceptada, y los oponentes de la filosofía analítica restan mucha importancia al rol de Wittgenstein durante los sesenta y setenta. Peter Hacker, [ ] representa la visión de los seguidores de Wittgenstein cuando critica que mucha de la filosofía contemporánea que se dice a sí misma analítica realmente no merece el título. Sostiene que bajo la influencia del creciente prestigio de ciertos desarrollos científicos y tecnológicos como la informática, la neurofisiología y la lingüística chomskyiana, los argumentos wittgensteinianos fueron relegados a un segundo término o descartados por completo. Sin embargo lo que Wittgenstein consideraba que eran enfermedades del intelecto, y en las que trabajó largo tiempo para extirparlas, surgieron nuevamente en formas violentamente mutadas.

La Filosofía analítica contemporánea
La Enciclopedia filosófica Symploke [ ] señala:

«En realidad, la filosofía analítica agrupa diversas posiciones filosóficas, muchas veces incompatibles entre sí. Han recibido la calificación de «filósofos analíticos» los atomistas lógicos, los neopositivistas, los analistas del lenguaje científico, los analistas del lenguaje ordinario, determinados filósofos marxistas, etc. Se acostumbra a decir que participan de un «estilo» o método (el análisis lógico) y de unas preocupaciones comunes (la voluntad de claridad, el interés por el lenguaje...)».

Aunque los filósofos contemporáneos que se identifican a sí mismos como “analíticos” tienen intereses, premisas, supuestos y métodos divergentes –y en ocasiones han rechazado las premisas fundamentales que definieron al movimiento antes de 1960- la filosofía analítica, en su estado actual, se define por un estilo particular [ ]  caracterizado por la precisión y la profundidad sobre temas muy específicos.

Para Richard Rorty la Filosofía «analítica» es una nueva variante de la filosofía kantiana, caracterizada por considerar que la representación es lingüística más que mental, y que la filosofía del lenguaje, más que critica trascendental o psicológica, es la disciplina que presenta los fundamentos del conocimiento [ ].

Complementando esta observación R. Rorty señala:
“…No creo que exista ya nada que sea identificable como «filosofía analítica», como no sea de alguna forma estilística o sociológica…” [ ].

Saúl Kripke [ ] ha realizado importantes y originales contribuciones en diversos campos relacionados con la lógica, la metafísica y la filosofía del lenguaje. Kripke es mayormente conocido por cuatro contribuciones a la filosofía: Semántica para la lógica modal (y otras relacionadas), llamadas semánticas Kripke, publicada en varios ensayos.

En su obra destacan sus conferencias de 1970 (publicadas en 1972 y 1980) en Princeton, llamadas El nombrar y la necesidad (Naming and Necessity), modificaron la filosofía del lenguaje, y, como algunos lo han dicho, "hicieron a la metafísica respetable de nuevo". Su interpretación de la filosofía de Ludwig Wittgenstein y su teoría de la verdad.

Michael Dummett [ ] ha escrito acerca de la historia de la filosofía analítica y ha hecho importantes contribuciones a esta disciplina, particularmente a las áreas de la filosofía de las matemáticas, la filosofía de la lógica, la filosofía del lenguaje y la metafísica.

Peter Frederick Strawson [ ] es un filósofo asociado con el movimiento de la filosofía del lenguaje, dentro de la filosofía analítica. Fue profesor de filosofía metafísica  en la Universidad de Oxford entre 1968 y 1987. Se hizo conocido con su artículo "On Referring" (1950), una crítica a Bertrand Russell y su teoría de las descripciones definidas. Es también conocido por la reconstrucción analítica de los argumentos de Immanuel Kant en la Crítica de la Razón Pura, y por la defensa de una rehabilitación de la metafísica como disciplina filosófica, especialmente en su libro Individuals, en el cual delinea y suministra una muestra de empleo de su proyecto de metafísica descriptiva [ ].

Wilfrid Sellars [ ] es conocido como un crítico de la epistemología fundacionalista [ ], pero sus obras filosóficas más generales están dirigidas hacia el objetivo final de la conciliación de formas intuitivas de describir el mundo (tanto las del sentido común y la filosofía tradicional) con una visión  científica naturalista de la realidad. Es reconocido por su argumentación y por su asimilación de diversos temas en la búsqueda de una visión sinóptica. Sellars fue el primer filósofo que sintetizo elementos del pragmatismo americano con los elementos de la filosofía analítica británica y austríaca y el positivismo lógico alemán. Su trabajo también refleja un compromiso sostenido con la tradición alemana del idealismo trascendental, el más obvio en su libro Ciencia y Metafísica: Variaciones kantianas.

W. V. O. Quine [ ]
Así como el Círculo de Viena intentaba continuar el trabajo del Tractatus de Wittgenstein, los filósofos posteriores trataron de refinar el trabajo de los positivistas. La distinción entre enunciados analíticos y sintéticos, presidía en el núcleo del positivismo lógico como las ecuaciones matemáticas, los enunciados analíticos adquieren significado a partir de la definición de sus palabras o sus símbolos.

El destacado filósofo estadounidense Willard Van Orman Quine [ ], desafió la validez de la distinción analítica sintética y al hacerlo cuestionó una tradición que se remontaba al menos hasta Inmanuel Kant o tal vez antes.

Quine en cierto modo estaba más cerca de los positivistas que algunas de las personas del otro grupo de Wittgenstein. En 1951 Quine publicó un artículo llamado “Dos dogmas del empirismo” [ ] que recibió una importante respuesta de una parte de la comunidad filosófica. Entonces, aquí está lo que no funcionó correctamente en la teoría de verificación en manos de los positivistas. “¿Estaban equivocados en que la verificación es la clave para el significado?”. Nosotros diríamos: “No. La aplicaron equivocadamente.”

Ellos trataron de aplicarla a oraciones una por una, pero en realidad sólo puede aplicarse a sistemas completos de oraciones que expresan nuestras teorías completas del mundo. Ahora había un segundo escenario según Quine que se relacionaba con esto y era la doctrina positivista de que hay una clase de proposiciones analíticas que expresan verdades que son totalmente independientes de cualquier declaración acerca del mundo. Son verdaderas sólo en virtud del significado, pero dice Quine; ahora que sabemos que el significado es holístico, sabemos que las oraciones no tienen esta clase de significado independiente. Todas las oraciones obtienen su significado, mediante la contribución que hacen a toda nuestra teoría completa y, en principio, ninguna oración está exenta de ser revisada, si las predicciones acerca de la experiencia llevadas a cabo por nuestra teoría completa resultan falsas.

Entonces, el resultado final es una visión en la que Quine conserva la concepción verificacionista central acerca de qué es el significado, pero rechaza el punto de vista de que hay oraciones que implican análisis puramente conceptuales y que constituyen los problemas especiales de la filosofía. Al tomar esta posición, abandona el punto de vista de que todos los problemas filosóficos son esencialmente problemas de significado y adopta una posición en la que sostiene que la filosofía sigue fundamentalmente la línea de las ciencias naturales y la matemática.

Para Quine la ontología -el estudio de la existencia o del ser- es simplemente la investigación de lo que está implícito en el lenguaje. En consecuencia, los filósofos deben tratar con las presunciones ontológicas del lenguaje, aunque lo que hay no depende del uso que hacemos del lenguaje, lo que decimos que hay, si depende del lenguaje.

Quine concebía al lenguaje como un todo estructural que responde a la experiencia como entidad única. La experiencia penetra la capa exterior y se filtra, aunque de manera diluida hacia el núcleo interior. De este modo, existe una clara distinción entra las proposiciones hechas a partir de la experiencia y aquellas hechas independientes de la experiencia. En el fondo Quine era un empirista pragmático que creía que todos los esquemas conceptuales, la ciencia y la lógica incluidas, son simplemente herramientas que sirven para entender el mundo.

Al tiempo que la filosofía analítica cambió su enfoque del lenguaje hacia la epistemología, también se dividió en otras áreas con mayor afinidad natural por el modo analítico. Filósofos como John Searle, Paul Rice, Donald Davidson, Noham Chomsky, Hilary Putnam, y muchos otros, hicieron contribuciones significativas a la filosofía de la mente, la filosofía de la ciencia, la lógica, etc. Esto conlleva nuevamente a la pregunta “¿Qué queremos expresar al decir filosofía analítica?”. ¿Es un área de estudio en sí misma como la estética?, ¿Es una metodología?, ¿Es simplemente un contrapunto a la tradición continental de Hegel en adelante?

A continuación resumo algunos de los campos más importantes y activos de la filosofía analítica contemporánea:

La Filosofía de la mente y las ciencias cognitivas
Motivado en parte por el interés en el verificacionismo de los positivistas lógicos, el conductismo [ ] (J. B. Watson, B. F. Skinner) fue la teoría de la mente más prominente en la filosofía analítica de la primera mitad del siglo XX. Los conductistas sostenían o bien que toda proposición sobre la mente era equivalente a proposiciones sobre conducta y disposiciones para actuar de modo particular o bien que los estados mentales eran equivalentes a conducta y disposiciones para actuar.

Gilbert Ryle, fue un filósofo, representante de la escuela filosófica de Oxford influenciado por el pensamiento de Wittgenstein sobre el lenguaje y conocido principalmente por su crítica al dualismo cartesiano. Su principal trabajo: El concepto de lo mental fue publicado en 1949 [ ]. Según Ryle el discurso ordinario contiene expresiones equívocas que dan lugar a diversos problemas filosóficos. Ryle considera que los estados mentales en realidad son disposiciones para actuar, y que la introspección puede darnos acceso directo a nuestro propio mundo mental, pero no podemos saber mucho acerca del de las otras personas. Gilbert Ryle sostiene que esos puntos de vista, que han sido lugares comunes desde Descartes, están basados en un «desastroso error categorial».

 En la década de los cincuenta, el conductismo cedió posiciones a favor del fisicalismo de tipos [ ] o teoría de la identidad y en los sesenta por el funcionalismo [ ] y la teoría de la identidad de casos (en oposición a la de tipos), sobre todo en la versión de Donald Davidson y su monismo anómalo. [ ] El monismo anómalo ha recibido críticas desde perspectivas diversas. Por un lado, se pone en duda que los argumentos de Davidson en favor de la anomalía de lo mental sean acertados. Se considera al monismo anómalo como una importante posición dentro de la Filosofía de la mente; sin embargo, la mayoría no lo considera la solución al problema mente-cuerpo.

El trabajo de D. Davidson especialmente en “Significado y verdad” [ ], e “Interpretación radical” [ ] identifican un enfoque del problema del significado que es rival a lo que se denomina «teoría causal del significado» desarrollado en la obra de H.P. Griece [ ].

Actualmente los temas de filosofía de la mente se encuentran estrechamente vinculados con diferentes aspectos de las ciencias cognitivas como la modularidad de la mente o el innatismo. También ha habido filósofos analíticos que han defendido el dualismo, la importancia de la conciencia y el dualismo de propiedades, en buena medida alentados por David Chalmers. John Searle [ ] sugiere que la obsesión con la filosofía del lenguaje en la primera mitad del siglo XX fue superada en la segunda mitad por un mayor énfasis en la filosofía de la mente, [ ] en la cual el funcionalismo probablemente sea la teoría dominante. En años recientes, un tema central de investigación en filosofía de la mente ha sido la conciencia.

Dan Sperber es conocido especialmente por su trabajo sobre la pragmática [ ] y, en particular, sobre la "teoría de la relevancia" y la "epidemiología de las representaciones". Su obra más influyente es La Relevancia, junto al británico Deirdre Wilson, que ha pasado a convertirse en el mainstream en pragmática, lingüística, inteligencia artificial y psicología cognitiva [ ]. Para Sperber los procesos cognitivos estarían dirigidos hacia la consecución de una máxima pertinencia, es decir, la búsqueda de una relación óptima entre los esfuerzos cognitivos y sus efectos [ ].

La Ética
En la primera mitad del siglo XX no hubo tratamiento importante de la ética filosófica destacándose actitudes escépticas con respecto al valor (v.gr. el emotivismo [ ]). Durante este tiempo, el utilitarismo [ ] fue la única aproximación no-escéptica a la ética. Sin embargo, en la segunda mitad del siglo XX, el libro “Filosofía moral moderna” de 1958 de Elizabeth Anscombe [ ] revivió la ética de virtudes de Aristóteles y “Una teoría de la justicia” de 1971 de John Rawls restableció el interés en la filosofía ética kantiana. Actualmente, la filosofía ética se halla dominada por tres escuelas: el utilitarismo, la ética de virtudes y el kantismo. Otro desarrollo importante en la segunda mitad del siglo XX (c. 1970) ha sido la gran preocupación de la filosofía ética contemporánea con las aplicaciones prácticas de la ética, p.e. a través de la bioética.[ ]

Como un efecto colateral del énfasis en la lógica y el lenguaje en los años iniciales de la filosofía analítica, los filósofos analíticos tenían poco que decir sobre la ética.[ ]  Wittgenstein, en el “Tractatus”, observa que los valores no pueden ser parte del mundo, y si en realidad son algo deben estar de alguna manera más allá o fuera del mundo y por lo tanto del lenguaje natural, que sirve para describir los hechos del mundo, y no puede pronunciarse en absoluto sobre su valor. Una interpretación de estas observaciones encontró eco en la doctrina de los positivistas lógicos [ ] de que las oraciones de valor –incluyendo todos los juicios éticos y estéticos- no son en realidad proposiciones, es decir, no pueden ser ni verdaderas ni falsas. La filosofía política y social, la ética y la estética, así como materias especializadas como la filosofía de la historia fueron marginales en la filosofía analítica por mucho tiempo.

Para los años cincuenta, los ataques de Phillipa Foot [ ] a esta posición contribuyeron al colapso del positivismo lógico y comenzó un renovado interés en la ética. Foot promocionó mucho el estudio de la ética de virtudes, en oposición al utilitarismo y la deontología de corte kantiano que sobrevivían en la época. En términos de filosofía de la acción la monografía más importante quizá sea “Intención” de Elizabeth Anscombe [ ], a la cual Donald Davidson [ ] denominó como “el tratamiento más importante de la acción desde Aristóteles”, y es normalmente considerada como una obra maestra de la psicología moral.

Gilbert Harman, filósofo norteamericano contemporáneo, profesor en la Universidad de Princeton, ha publicado numerosos trabajos sobre la ética, la epistemología, la metafísica y las filosofías del lenguaje y la mente. Harman comparte las creencias de su asesor de doctorado Willard Van Orman Quine de que la filosofía y la ciencia son continuas, así como su escepticismo sobre el análisis conceptual. Como filósofo moral, es conocido por su argumento explicativo para el anti-realismo y por su defensa de una forma de relativismo moral, en el Relativismo moral y la Objetividad moral (Oxford: Blackwell, 1996), en la que debate la cuestión con Judith Jarvis Thomson [ ].

La Filosofía de la religión
Como con el estudio de la ética, la filosofía analítica temprana tendió a evitar el estudio de la filosofía de la religión, en gran parte rechazando el tema como parte de la metafísica y algo sin sentido. También en la segunda mitad del siglo XX comenzó a haber un renovado interés en la filosofía de la religión, con destacados filósofos que entre otros temas han debatido sobre la validez lógica de defensa del libre albedrío como solución del problema del mal. [ ] p.e. W. Alston, [ ] en conexión con la filosofía del lenguaje, trabajó en la naturaleza del lenguaje religioso.

La Filosofía política
En cuanto a la filosofía política analítica contemporánea John Rawls [ ], en: el artículo “Dos conceptos de reglas” y el libro Justicia como equidad, y luego en su clásico libro de 1971 Una teoría de la justicia [ ], produjo una defensa sofisticada y refinadamente argumentada del liberalismo en política por la vía contractualista. Siguió de cerca el libro de Robert Nozick [ ] Anarquía, Estado y Utopía [ ], una defensa del liberalismo de libre mercado. A la par, Isaiah Berlin [ ], igualmente, ha tenido influencia tanto en la filosofía política analítica como en el liberalismo, principalmente a través de su conferencia Dos conceptos de libertad.

En décadas recientes ha habido muchas críticas al liberalismo, incluyendo el feminismo de Catherine MacKinnon [ ], el comunitarismo [ ] de Michael Sandel y de Alasdair MacIntyre [ ], y el multiculturalismo [ ] de Charles Taylor [ ]. Aunque no se trata propiamente de un filósofo analítico, Jürgen Habermas [ ] es otra figura en la filosofía política contemporánea y ha recibido atención por parte de la filosofía política analítica.

El Comunitarismo
Comunitaristas como Alasdair MacIntyre, Michael Sandel y Charles Taylor cuestionan la presunción liberal de que el individuo puede verse como completamente autónomo de la comunidad en la que vive y crece. En cambio, ellos sostienen una concepción del individuo que enfatiza el rol que juega la comunidad al forjar sus valores, pensamientos, cosmovisiones y opiniones.

PAV//

Consultar: Filosofía del lenguaje:Saúl Kripke / publicado en mi blog  Filosofía

5 de diciembre de 2011

Teorías del aprendizaje

Percy C. Acuña Vigil

Este documento sobre Teorías del Aprendizaje esta organizado de acuerdo al siguiente Mapa Conceptual. Parte del Conductismo, (Filosofía de la ciencia de la conducta); trata en si las Teorías del Aprendizaje propias. Examina la Teoría de Adquisición de Conceptos, Se complementa con una revisión de las Teorías Computacionales asociadas y concluye con una lección a modo de síntesis de la investigación sobre la Adquisición de Conceptos y la toma de posición epistemológica.



1. Los Paradigmas de investigación.
Durante el siglo XX dos corrientes del pensamiento han tenido influencia decisiva sobre la Psicología del Aprendizaje , el Conductismo   y la Psicología cognitiva . Según Thomas Kuhn  estos movimientos científicos constituyen dos revoluciones paradigmáticas, seguidas de su correspondiente periodo de ciencia normal .


En oposición al falsacionismo popperiano, Kuhn desacredita a la experimentación como la causa fundamental del progreso científico. Según su concepción, no es la fuerza de los datos lo que hace que un paradigma sea sustituido por otro, ya que los paradigmas son en sí mismos inconmensurables; sino que influyen criterios externos de tipo generacional o social.

Lakatos  discrepa con esta última idea, ya que su falsacionismo metodológico se encuentra en una posición intermedia entre las posiciones de Popper y de Kuhn. Lakatos coincide con Kuhn en el predominio de los paradigmas – llamados por él: programas de investigación -, sobre los datos pero acuerda con Popper que son finalmente los datos los que constituyen los árbitros de cambio en las teorías científicas.

2. Conductismo y Procesamiento de Información.
Según Kuhn, la primera revolución paradigmática da lugar a la aparición del conductismo, como respuesta al subjetivismo y al abuso del método introspectivo por parte del estructuralismo y del funcionalismo. Y la segunda revolución la constituye el procesamiento de la información.

Para Skinner el Conductismo es una filosofía de la Ciencia de la Conducta. Es una manera de estudiar lo Psicológico ó cualquier fenómeno del mundo desde la perspectiva de una ciencia de la conducta, sin mentalismos ni reduccionismos provenientes de la Neurología, Lógica, Sociología o Procesamiento de de datos. El Conductivismo metodológico se guía en función a criterios pragmáticos de abordaje programático de la conducta como referente de fenomenos "internos".


El conductismo se basa en los estudios del aprendizaje mediante condicionamiento, considerando innecesario el estudio de los procesos mentales superiores para la comprensión de la conducta humana. El núcleo central del conductismo está constituido por su concepción asociacionista del conocimiento y del aprendizaje.

A mitad de siglo, las múltiples anomalías empíricas y factores externos como las nuevas tecnologías cibernéticas y las Teorías de la Comunicación y de la Lingüística hacen que el paradigma conductista entre en crisis y sea sustituido por el procesamiento de información que apoyándose en la metáfora del ordenador, hace posible el estudio de los procesos mentales que el conductismo marginaba. De esta forma se entra en un nuevo periodo de ciencia normal, bajo el dominio de la psicología cognitiva, que llega hasta nuestros días.

Para la Psicología Cognitiva  la acción del sujeto está determinada por sus representaciones. Para el procesamiento de información, esas representaciones están constituidas por algún tipo de cómputo. La concepción del ser humano como procesador de información se basa en la aceptación de la analogía entre la mente humana y el funcionamiento de un computador En las últimas décadas, la investigación psicológica ha mostrado una atención creciente por el papel de la cognición en el aprendizaje humano, liberándose de los aspectos más restrictivos de los enfoques conductistas. Se prioriza en el papel de la atención, la memoria, la percepción, las pautas de reconocimiento y el uso del lenguaje en el proceso del aprendizaje.

"El enfoque cognitivo ha insistido sobre como los individuos representan el mundo en que viven y cómo reciben información, actuando de acuerdo con ella. Se considera que los sujetos son elaboradores o procesadores de la información". (Johnson-Laird, 1980)

Para la corriente constructivista, el ser humano adquiere el conocimiento mediante un proceso de construcción individual y subjetiva, de manera que la percepción del mundo está determinada por las expectativas del sujeto. En el paso del conductismo al procesamiento de información si bien se conserva el mismo núcleo central, su cinturón protector se ha modificado. Por oposición al conductismo, el procesamiento de información proporciona una concepción constructivista del ser humano.

De acuerdo a muchos autores, el procesamiento de información no constituye un programa progresivo respecto del conductismo y ha recibido muchas críticas debido a sus insuficiencias y limitaciones. A decir de Siegler y Klahr , el abandono de las investigaciones sobre el aprendizaje por parte del procesamiento de información es equivalente al abandono de los procesos mentales por parte del conductismo.

3. Teorías del aprendizaje
Diversas teorías nos ayudan a comprender, predecir, y controlar el comportamiento humano y tratan de explicar cómo los sujetos acceden al conocimiento. Su objeto de estudio se centra en la adquisición de destrezas y habilidades, en el razonamiento y en la adquisición de conceptos.



Por ejemplo, la Teoría del condicionamiento clásico de Pavlov: explica como los estímulos simultáneos llegan a evocar respuestas semejantes, aunque tal respuesta fuera evocada en principio sólo por uno de ellos. La teoría del condicionamiento instrumental u operante de Skinner describe cómo los refuerzos forman y mantienen un comportamiento determinado. Albert Bandura describe las condiciones en que se aprende a imitar modelos. La teoría Psicogenética de Piaget aborda la forma en que los sujetos construyen el conocimiento teniendo en cuenta el desarrollo cognitivo. La teoría del procesamiento de la información se emplea a su vez para comprender cómo se resuelven problemas utilizando analogías y metáforas.


¿Cuándo una teoría es mejor que otra?
Según LAKATOS (1978), cuando reúne tres condiciones:
•    Tener un exceso de contenido empírico con respecto a la teoría anterior, es decir, predecir hechos que aquella no predecía.
•    Explicar el éxito de la teoría anterior, es decir, explicar todo lo que aquella explicaba.
•    Lograr corroborar empíricamente al menos una parte de su exceso de contenido.

Por consiguiente, lo que caracteriza una buena teoría en la terminología de LAKATOS, es su capacidad para predecir e incorporar hechos nuevos, frente a aquellas otras teorías  que se limitan a explorar lo ya conocido. LAKATOS (1978) piensa que una nueva teoría se impondrá sobre otra vigente cuando, además de explicar todos los hechos relevantes que ésta explicaba, se enfrente con éxito a algunas de las anomalías de las que la teoría anterior no podrá darse cuenta. Así se asegura una continuidad entre las teorías sucesivas, ya sea dentro de un mismo programa (LAUDAN, 1977) o en programas diversos.

4. Adquisición de conceptos
Las teorías del aprendizaje tratan de explicar cómo se constituyen los significados y como se aprenden los nuevos conceptos.

Hasta hace poco, los psicólogos suponían, siguiendo a Mill y a otros filósofos empiristas, que las personas adquirimos conceptos mediante un proceso de abstracción (teoría inductivista) que suprime los detalles idiosincráticos que difieren de un ejemplo a otro, y que deja sólo lo que se mantiene común a todos ellos. En la actualidad existen dos vías formadoras de conceptos: mediante el desarrollo de la asociación (empirista) y mediante la reconstrucción (corriente europea).

Para la corriente asociacionista no hay nada en el intelecto que no haya pasado por los sentidos. Sostiene que todos los estímulos son neutros y que los organismos son todos equivalentes. Postula que el aprendizaje se realiza a través del proceso recompensa-castigo (teoría del conductismo: se apoya en la psicología fisiológica de Pavlov). Es antimentalista, de modo que el recorte del objeto está dado por la conducta, por lo observable y argumenta que el sujeto es pasivo y responde a las complejidades del medio.

Mientras que para las corrientes europeas, que están basadas en la acción y que tienen uno de sus apoyos en la teoría psicogenética de Piaget, el sujeto es activo. Los conceptos no se aprenden sino que se reconstruyen y se van internalizando. Lo importante es lo contextual, no lo social. Las corrientes del procesamiento de la información tienen algo de ambas. El sujeto no es pasivo.

5. Teorías computacionales
Dentro de las denominadas Teorías Computacionales, unas se desarrollan en el marco de la Inteligencia Artificial, sin buscar compatibilidad con datos psicológicos; y otras tantas teorías respetando los límites de la metáfora computacional, intentan ser psicológicamente relevantes, adecuándose a los datos que se conocen sobre el procesamiento humano de información.

A decir de Pozo, dentro de las teorías del aprendizaje computacional psicológicamente relevantes que se ocupan de la adquisición de conceptos, las más prototípicas son las teorías ACT (Adaptive Control of Thought: Control Adaptativo del Comportamiento) de ANDERSON (1982, 1983) , la teoría de los esquemas de RUMELHART y NORMAN (1978)  y la teoría de la inducción pragmática de HOLLAND y cols.

5.1.    Enfoque sintáctico: La teoría ACT de ANDERSON
El ACT es una teoría unitaria del procesamiento de la información. La idea básica que subyace a la teoría es los mecanismos de aprendizaje están estrechamente relacionados con el resto de los procesos, especialmente con la forma en que se presenta la información en el sistema.



"todos los procesos cognitivos superiores, como memoria, lenguaje, solución de problemas, imágenes, deducción e inducción son manifestaciones diferentes de un mismo sistema subyacente" (ANDERSON, 1983, pág. 1)

ANDERSON (1982, 1983) propone una teoría del aprendizaje basada en tres estadios sucesivos. Todo concepto adquirido pasa por tres fases: interpretación declarativa, compilación y ajuste.

La teoría del aprendizaje basada en el ACT está orientada fundamentalmente a la adquisición de destrezas (ANDERSON, 1982). Pero no sólo es aplicable a destrezas motoras relativamente simples. Incluye también, otro tipo de habilidades más complejas como la toma de decisiones, la solución de problemas matemáticos o la generación del lenguaje.
Según Pozo, el ACT puede también considerarse una teoría del aprendizaje de conceptos, ya que ninguna destreza compleja puede efectuarse sin la intervención de un concepto.

5.2.    Enfoque semántico: la teoría de los esquemas.
La teoría de los esquemas puede considerarse como una teoría de la representación y utilización de los conceptos almacenados en la memoria. Es una teoría general del procesamiento.



"Un esquema es una estructura de datos para representar conceptos genéricos almacenados en la memoria." (RUMELHART, 1984, pag. 163).

Según RUMELHART (1981, 1984), la teoría general de los esquemas se ocupa de cómo se representa el conocimiento y de cómo se usa el conocimiento almacenado. La unidad básica de procesamiento serían los esquemas, consistentes en "paquetes de información" sobre conceptos genéricos. Los esquemas representan conocimientos, son representaciones prototípicas de los conceptos.

Para RUMENHART y NORMAN desde un punto de vista lógico pueden distinguirse tres tipos de aprendizaje: el crecimiento, la reestructuración y el ajuste. Mediante el crecimiento se acumula nueva información en los esquemas ya existentes. Las leyes que rigen este crecimiento son básicamente asociativas:

5.3.    Enfoque pragmático: una teoría pragmática de la inducción.
La teoría de la inducción es una teoría general del procesamiento, que presenta una serie de restricciones básicas que le dan al proceso inductivo, un carácter pragmático. Esta teoría acepta la representación del conocimiento mediante modelos mentales.



El sistema de representación propuesto por HOLLAND y cols (1986), al igual que el ACT de ANDERSON (1983), está basado en reglas o sistemas de producción, pero se asemeja a la teoría de los esquemas en que sus unidades significativas de representación tienen un carácter más bien molar. Son los modelos mentales, compuestos por series de reglas o sistemas de producción.

6.    Lecciones
Según BOLTON (1977) , toda teoría de la adquisición de conceptos supone, explícita o implícitamente, una opción sobre la naturaleza de la realidad y una toma de posición epistemológica.

La postura que adoptan las teorías asociacionistas respecto a la naturaleza y a la forma en que se adquiere el conocimiento, tiene como características principales:  el elementismo, el empirismo y el realismo o la correspondencia entre realidad y conocimiento.

Las teorías tratan los conceptos como si fueran entidades reales y no nominales y parten de la idea de que su definición viene dada por sus referentes y no por su sentido o conexión hacia arriba con otros conceptos. En relación con el aprendizaje de conceptos, el asociacionismo da lugar a teorías de la abstracción o inducción de conceptos.

Las teorías descritas comparten tres supuestos básicos con respecto a la inducción o abstracción (BOLTON, 1977):
1.    Los conceptos se forman mediante el reconocimiento de similitudes entre objetos.
2.    El progreso en la formación de conceptos va de lo particular a lo general.
3.    Los conceptos concretos son primarios, ya que constituyen la base para la adquisición de conceptos más abstractos.

Las distintas teorías difieren en los mecanismos de aprendizaje que dan cuenta de esa abstracción y en los resultados producidos por ese aprendizaje, que dan lugar a conceptos probabilísticos o de estructura difusa, o a conceptos bien definidos.

Las teorías expuestas presentan una ausencia de organización en el sujeto psicológico, es decir que no pueden explicar la coherencia conceptual, y son incapaces de explicar el origen de los significados.

Estas teorías, si bien tienen desarrollados los mecanismos de ajuste de conceptos mediante generalización y diferenciación, presentan la limitación que para que el sistema ajuste sus conceptos debe poseerlos previamente. Los sistemas computacionales son incapaces de explicar el origen de esos conocimientos.

11. Bibliografía.



Anderson, John R.1976. Language, Memory, and Thought. September 1st 1976, Psychology Press – 546 pp.
Bruner, Jerome S. (1966). Investigaciones sobre el desarrollo cognitivo, Pablo del Río Editor, Madrid (España).
Carretero, M.- Limón, M., "Problemas actuales del constructivismo. De la teoría a la Práctica", en Rodrigo, M.-Arnay, J., Paidós, Barcelona.
Chalmers, A., ¿Qué es esa cosa llamada ciencia?, Siglo XXI, Madrid, 1984. Duran, S., Modelos Mentales y Prácticas Deductivas, inédito, 1997.
Chomsky, Noam (1980). El lenguaje y el entendimiento, Planeta-Agostini, Barcelona (España).
Holland, J. H.; Holyoak, K. J.; Nisbett, R. E. &, Thagard, P.R. (1989) Induction: Processes of inference, learning, and discovery. Cambridge, MA: MIT Press.
Kuhn, Thomas S. (2005). La estructura de las revoluciones científicas. Fondo de Cultura Económica de España.
Laird, J., El ordenador y la mente, Paidós, Barcelona, 1990.
Lakatos, Imre. La metodología de los Programas de investigación científica. Alianza. Madrid. 1993.
Mill, John Stuart. (2006 ).  "On Liberty" Penguin Classics.
Newell, Allen y Herbert Simon (1972). Human problem solving, Editorial Prentice Hall, Englewood Cliffs (New Jersey, EEUU).
Popper, Karl. 1934. Logik der Forschung, (La Lógica de la Investigación Científica). La lógica de la investigación científica. Editorial Tecnos. 1985.
Pozo, J., Teorías Cognitivas del Aprendizaje, Morata, Madrid, 1994.
Pozo, Juan Ignacio, Pozo Municio, Juan Ignacio.  Teorías cognitivas del aprendizaje. Ediciones Morata, 1989 - 288 páginas.
Rumelhart, D. & Norman, D. (1978). Accretion, tuning and restructuring: Three modes of learning. In. J.W. Cotton & R. Klatzky (eds.), Semantic Factors in Cognition. Hillsdale, NJ: Erlbaum.
Rumelhart, D. & Norman, D. (1981). Analogical processes in learning. In J.R. Anderson (ed.), Cognitive Skills and their Acquisition. Hillsdale, NJ: Erlbaum.

30 de noviembre de 2011

Teorías del lenguaje:

AUTOR    TEORÍA

JEAN PIAGET    Piaget destaca la prominencia racional del lenguaje y lo asume como uno de los diversos aspectos que integran la superestructura de la mente humana. El lenguaje es visto como un instrumento de la capacidad cognoscitiva y afectiva del individuo, lo que indica que el conocimiento lingüístico que el niño posee depende de su conocimiento del mundo.
Su estudio y sus teorías se basan en las funciones que tendría el lenguaje en el niño. Para Piaget las frases dichas por los niños se clasifican en dos grandes grupo: las del lenguaje egocéntrico y las del lenguaje socializado; estas a su vez se dividen en las siguientes categorías:
•    Lenguaje Egocéntrico: Repetición o Ecolalia.
El monólogo.
El monólogo colectivo.
•    Lenguaje Socializado: La información adaptada.
La crítica.
Las órdenes, ruegos y amenazas.
Las preguntas.
Las respuestas.

LENGUAJE EGOCÉNTRICO:
Se caracteriza porque el niño no se ocupa de saber a quién habla ni si es escuchado.  Es egocéntrico, porque el niño habla más que de sí mismo, pero sobre todo porque no trata de ponerse en el punta de vista de su interlocutor.  El niño sólo le pide un interés aparente, aunque se haga evidente la ilusión de que es oído y comprendido.
1.    Repetición o Ecolalia: el niño repite sílabas o palabras que ha escuchado aunque no tengan gran sentido para él, las repite por el placer de hablar, sin preocuparse por dirigirlas a alguien. Desde el punto de vista social, la imitación parece ser una confusión entre el yo y el no-yo, de tal manera que el niño se identifica con el objeto imitado, sin saber que está imitando; se repite creyendo que se expresa una idea propia.
2.    El monólogo: el niño habla para sí, como si pensase en voz alta. No se dirige a nadie, por lo que estas palabras carecen de función social y sólo sirven para acompañar o reemplazar la acción. La palabra para el niño está mucho más ligada a la acción que en el adulto. De aquí se desprenden dos consecuencias importantes: primero, el niño está obligado a hablar mientras actúa, incluso cuando está sólo, para acompañar su acción; segundo, el niño puede utilizar la palabra para producir lo que la acción no puede realizar por sí misma, creando una realidad con la palabra (fabulación) o actuando por la palabra, sin contacto con las personas ni con las cosas (lenguaje mágico).
3.    Monólogo en pareja o colectivo: cada niño asocia al otro su acción o a su pensamiento momentáneo, pero sin preocuparse por ser oído o comprendido realmente. El punto de vista del interlocutor es irrelevante; el interlocutor sólo funciona como incitante, ya que se suma al placer de hablar por hablar el de monologar ante otros. Se supone que en el monólogo colectivo todo el mundo escucha, pero las frases dichas son sólo expresiones en voz alta del pensamiento de los integrantes del grupo, sin ambiciones de intentar comunicar nada a nadie.

LENGUAJE SOCIALIZADO:
1.    La Información Adaptada: el niño busca comunicar realmente su pensamiento, informándole al interlocutor algo que le pueda interesar y que influya en su conducta, lo que puede llevar al intercambio, la discusión o la colaboración. La información está dirigida a un interlocutor en particular, el cual no puede ser intercambiable con el primero que llega, si el interlocutor no comprende, el niño insiste hasta que logra ser entendido.
2.    La crítica y la Burla: son las observaciones sobre el trabajo o la conducta de los demás, específicas con respecto a un interlocutor, que tienen como fin afirmar la superioridad del yo y denigrar al otro; su función más que comunicar el pensamiento es satisfacer necesidades no intelectuales, como la combatividad o el amor propio. Contienen por lo general, juicios de valor muy subjetivos.
3.    Las órdenes, ruegos y amenazas: el lenguaje del niño tiene, principalmente, un fin lúdico. Por lo tanto, el intercambio intelectual representado en la información adaptada es mínimo y el resto del lenguaje socializado se ocupa, principalmente, en esta categoría. Si bien las órdenes y amenazas son fáciles de reconocer, es relevante hacer algunas distinciones. Se les denomina "ruegos" a todos los pedidos hechos en forma no interrogativa, dejando los pedidos hechos en forma interrogativa en la categoría preguntas.
4.    Las Preguntas: la mayoría de las preguntas de niño a niño piden una respuesta así que se les puede considerar dentro del lenguaje socializado, pero hay que tener cuidado con aquellas preguntas que no exigen una respuesta del otro, ya que el niño se le da solo; estas preguntas constituirían monólogo.
5.    Las respuestas: son las respuestas dadas a las preguntas propiamente dichas (con signo de interrogación) y a las órdenes, y no las respuestas dadas a lo largo de los diálogos, que corresponderían a la categoría de "información adaptada". Las respuestas no forman parte del lenguaje espontáneo del niño: bastaría que los compañeros o adultos hicieran más preguntas para que el niño respondiera más, elevando el porcentaje del lenguaje socializado.

En conclusión el lenguaje egocéntrico va disminuyendo con la edad. Hasta la edad de 7 años, los niños piensan y actúan de un modo más egocéntrico que los adultos.

El porcentaje del lenguaje egocéntrico depende de la actividad del niño como de su medio ambiente. En general, el lenguaje egocéntrico aumenta en actividades de juego (especialmente el de imaginación) y disminuye en aquellas actividades que constituyan trabajo. Con respecto al medio social, el lenguaje egocéntrico disminuirá cuando el niño coopere con otros o cuando el adulto intervenga sobre el habla del niño, exigiendo el diálogo.

EDADES: Para Piaget los en los niños menores de 7 años sólo existe comprensión en la medida que se encuentren esquemas mentales idénticos y preexistentes tanto en el que explica como en el que escucha.
Después de los 7 u 8 años del niño, cuando comienza su verdadera vida social, comienza el verdadero lenguaje

ENFOQUE COGNITIVO:
Posición Constructivista: Las estructuras de la inteligencia incluyen el desarrollo del lenguaje. El sujeto tienen un papel activo en el desarrollo de la inteligencia, en la construcción cognitiva, si un sujeto no interactúa no desarrolla la inteligencia ni el lenguaje.
Piaget ha denominado etapa de las operaciones concretas al período que va de los siete a los once años de edad. El niño en esta fase se caracteriza por la habilidad que va adquiriendo con la percepción de los distintos aspectos o dimensiones de una situación y el entendimiento de cómo tales aspectos o dimensiones se relacionan. El pensamiento presta ahora más atención a los procesos que a los estados. Tales cambios capacitan al niño para manipular conceptos, especialmente si las cosas e ideas que éstos implican no son ajenos a su realidad.
Del mismo modo, el habla del niño se hace menos egocéntrica en la medida en que aumenta en él la necesidad de comunicarse y la obligación de reconocer la importancia de su oyente. Esta situación es diferente de la que verbalmente se caracteriza el niño en la etapa anterior o pre-operacional (de 4 a 7 años), en la que el niño trata de satisfacer más sus propias necesidades verbales que las de su oyente. La mayor parte del habla de un niño en esta fase no tiene, según Piaget, intención comunicacional. Así, la actuación verbal tiende a ser repetitiva o de monólogo individual o colectivo.
Las etapas de Piaget son las siguientes:
1.   
2.    Etapa sensorio-motora (0 a 24 meses):
•    Es anterior al lenguaje.
•    Se contempla la existencia de un período holofrástico, e incluso el final de la misma dada por las primeras manifestaciones simbólicas.
3.    Etapa Preoperativa (2 a 7 años):
•    Los esquemas comienzan a ser simbolizados a través de palabras (habla telegráfica).
•    La última parte de esta etapa supone el surgimiento de la socialización.
•    El lenguaje alcanza un grado de desarrollo notorio. Aparición de las primeras oraciones complejas y uso fluido de los componentes verbales.
4.    Etapa de Operaciones Concretas (7 a 12 años):
•    Adquisición de reglas de adaptación social.
•    Se aprende que es posible transformar la realidad incluso a través del lenguaje.
5.    Etapa de Operaciones Formales (12 a 15 años):
•    Surgen verdaderas reflexiones intuitivas acerca del lenguaje, juicios sobre aceptabilidad y/o gramaticalidad de oraciones tratándose de una intuición consciente.

JAKOBSON    No está de acuerdo con las etapas, ya que considera que las vocalizaciones en el período prelingüístico no tienen relación con las de las primeras palabras y su subsiguiente desarrollo fonológico.
Observa un período silencioso entre las dos etapas.

JESPERSEN    Considera el balbuceo como una exploración de los sonidos que hacen los niños, pero el habla como una forma nueva y se trataba de la ejecución de otro tipo de sonidos.

MOWRER    Con una visión más conductista considera que el balbuceo estaba compuesto pro todos los sonidos posibles de la fonación natural y que debido al contacto con los adultos del entorno, sólo se reforzaban y permanecían los sonidos de las propias lenguas.

LOCKE    Observó que el 95% de los balbuceos a los 11 meses se basan en 12 consonantes; p, t, k, b, d, g, m, n, s y las semivocales w y j o la aspirada h, y que la estructura CV, generalmente repetida, era predominante.

BARRERA LINARES    Partiendo de que el hombre nace para hacer uso del lenguaje y construir el pensamiento y que gracias a ello es lo que es, para Linares es más pertinente considerar todo el proceso como un solo y único período en la vida, caracterizado eso si por varios estados particulares:
1.    Estado Inicial de interacción con el medio (y reconocimiento del mismo), más o menos pertinente a los tres primeros meses de vida (y aquí la edad no es más que una referencia pedagógica) y asociado a la emisión del llanto y el gorjeo.
2.    Estado de activación del Dispositivo para la Adquisición del Lenguaje (DAL), correspondiente a lo que tradicionalmente ha sido considerado como el período de balbuceo.
3.    Estado correspondiente a las primeras conformaciones simbólicas de la realidad, a partir de la doble articulación del lenguaje (primeros signos lingüísticos, centrados en la recreación de referentes propios del ambiente físico y de la conducta de los adultos).
4.    Estado de la consolidación de la gramática básica de la lengua particular que se está adquiriendo, relacionado con todos los componentes formales y funcionales del lenguaje.
5.    Estado de la instauración de las estructuras más complejas de la lengua materna, también inherente a los distintos componentes formales y funcionales, pero con particular énfasis en el inicio del dominio de las reglas pragmáticas, generadas sobre la base del incremento de intercambio verbal con miembros de la comunidad lingüística distintos a los del entorno familiar.
6.    Estado de consolidación y reajuste de las competencias pragmáticas y discursivas, marcado por un acceso a los niveles más abstractos del lenguaje (formas discursivas variadas y complejas).

Cada estado implica la preparación de las condiciones sociolingüísticas y cognoscitivas requeridas como mínima base para el paso siguiente. Todos serían acumulativos, no excluyentes, ni evitables. También es probable que a partir de del segundo, cada estado se relacione de manera relevante con algún orden discursivo específico.

STERN Y STERN (1.907), LEOPOLD (1934 – 3949), MONTES GIRALDO (1.971, 1.974) Y HERNÁNDEZ PINA (1.984)    ESTUDIOS DIARISTAS: Los trabajos de este período se caracterizan por las llamadas "biografías de bebés", elaboradas por sus propios padres. Se distinguen por ser altamente subjetivos sin orientación teórica específica. No se atiende mucho a las condiciones particulares del ambiente. Para ellos la lengua se desarrolla a partir de ciertas condiciones estimuladas por la influencia del medio.

SMITH (1.926)    Orientado hacia la longitud oracional y la medición del vocabulario.

HALLIDAY    Para Halliday la adquisición de una lengua consiste en el dominio progresivo del potencial funcional, que se incrementa hasta una tercera etapa, en el cual se registran ya funciones características del lenguaje adulto.
Esta teoría se basa en que el significado es un factor determinante de los inicios del lenguaje infantil, en que los procesos interactivos son quienes explican este lenguaje. El significado y el proceso netamente interactivo constituyen los dos pilares en que se sustenta esta teoría, por lo que Halliday concluye que las condiciones en que aprendemos la lengua, en gran medida están determinados culturalmente. Se conoce como parte de la psicología social.

El aprendizaje de la lengua consiste en el dominio progresivo de las macrofunciones o funciones básicas señaladas y la formación de un potencial semántico con respecto a cada uno de tales componentes funcionales.
Propone siete alternativas básicas en la etapa inicial del desarrollo lingüístico de un niño normal:
1.    Instrumental: "yo quiero", para la satisfacción de necesidades materiales.
2.    Regulatoria: "haz como te digo", para controlar el comportamiento de otros.
3.    Interaccional: "tu y yo", para familiarizarse con otras personas.
4.    Personal: "aquí estoy yo", para identificarse y expresarse a sí mismo.
5.    Heurística: "dime por qué", para explorar el mundo circundante y el interno.
6.    Imaginativa: "vamos a a suponer", para crear un mundo propio.
7.    Informática: "tengo algo que decirte", para comunicar nueva información.
Lo realmente importante no es que el niño haya adquirido esta o aquella función sino que haya internalizado el hecho de que el lenguaje sirve para esos propósitos, que sepa que es bueno hablar.

Halliday considera que el proceso de adquisición de una lengua, el individuo cumple tres fases:

1.    Primera Fase: (1 a 15 meses): Domina las funciones básicas extra-lingüísticas. Funciones que corresponden con usos de la lengua simple, no integrados y necesarios para la transición al sistema adulto, por considerarse universales culturales. Las funciones en esta fase son discretas y su aparición ocurre rigurosamente en el orden señalado. Desarrolla una estructura articulada en expresión y contenido. Los sonidos producidos no coinciden y los significados no son identificables.

2.    Segunda Fase: (16 – 22 meses): Transición del lenguaje del niño al primer lenguaje del adulto. Se divide en dos etapas:
•    La Macética o de "aprender": conjunción de las funciones personal y heurística, que se refiere al proceso de categorización y conocimiento del entorno.
•    La pragmática o de "hacer": en la que se conjugan la instrumental y la reguladora. El niño por medio del lenguaje satisface las necesidades básicas de comunicación y le sirve para conectarse con el medio ambiente. Significa el primer paso hacia el uso "informativo" de lengua. El diálogo, factor de importancia capital para la teoría de Halliday, implica formas puramente lingüísticas de interacción social y al mismo tiempo ejemplifica el principio general por el que las personas adoptan papeles, los asignan o rechazan los que se asignan.

3.    Tercera Fase (22 meses en adelante):El niño entra en una fase que supone la adecuación del lenguaje infantil a la lengua del adulto. Ya no se dará una correspondencia unívoca entre función y uso, se caracteriza por una pluralidad funcional. Aparecen tres nuevas funciones:
•    Ideativa: para expresar contenidos, producto de la experiencia del hablante y su visión del mundo real (utilización del lenguaje para aprender).
•    Interpersonal: opera para establecer y mantener las relaciones sociales.
•    Textura: es el mensaje lingüístico en sí mismo. Proporciona al hablante la posibilidad de utilizar adecuadamente los potenciales de significado y de organizarlos de modo coherente. Domina un sistema multi-funcional, ya que sabe como asignar los significados.


SKINNER    CONDUCTISTA: Sostiene que el lenguaje es una conducta adquirida en un proceso gradual de reracionamiento responsivo reforzado. Skinner ha reexaminado el campo de la actividad humana verbal basándose en conocimientos sólidamente a través de la minuciosa experiencia con animales y hombres. Su marco de referencia conceptual no hace especial hincapié en la noción de forma (como es tradición en estudios de tipo lingüísticos), sino sobre la función.

Skinner rechazó que el lenguaje se utilizara para comunicarse. En lugar de eso propuso que para entender el habla, la escritura y otros usos del lenguaje, primero que nada debían de reconocer que son formas de conductas. Más aun, propuso que la conducta verbal no es diferente en lo esencial de cualquier otra forma de conducta. La conducta verbal se aprende en términos de relaciones funcionales entre la conducta y los eventos ambientales, particularmente de sus consecuencias. Es el ambiente social lo que refuerza la conducta verbal.

Skinner, de igual manera, no afirmó nunca que el lenguaje pueda ser aprendido solamente a partir de la imitación del habla adulta. Tampoco proclamó la necesidad de que todas las emisiones infantiles sean reforzadas. Señaló que el lenguaje está considerado por unidades que pueden dar lugar a nuevas combinaciones. Skinner apuntó las limitaciones de los mecanismos generales anteriormente señalados para dar cuenta de la naturaleza productiva del lenguaje.

En Verbal Behavior, Skinner plantea que: La conducta verbal se caracteriza por ser una conducta reforzada a través de la mediación de otras personas, en la actividad del escucha. Las conductas del hablante y el escucha conforman juntas lo que podría denominarse un episodio completo.

De manera general se puede decir que Skinner:
1.    Reemplaza la idea de lenguaje como entidad (algo que la persona adquiere y posee) y como instrumento (herramientas para expresar ideas y estados mentales). La conducta verbal se estudia como cualquier otra conducta. Su particularidad es ser reforzada por sus efectos en la gente (primero en otra gente, pero eventualmente en el mismo hablante). Como resultado, está libre de las relaciones espaciales, temporales y mecánicas que prevalecen entre la conducta operante y las consecuencias no sociales.
2.    Se opone al mentalismo. Rechaza la concepción del lenguaje como usar palabras, comunicar ideas, compartir el significado, expresar pensamientos, etc. El lenguaje como conducta es objeto de estudio por su propio derecho, sin apelar a algo más.
3.    Se opone a la causalidad mecanicista del modelo de estímulo-respuesta. La conducta verbal es de tipo voluntario (operante), es seleccionada por sus consecuencias ambientales, y se investiga por análisis funcional, partiendo de la descripción de la contingencia de tres términos.
4.    La particularidad de la conducta verbal respecto a otras operantes, es que las consecuencias de la conducta del hablante están mediadas por otras personas. Las variables controladoras son sociales: la conducta de otros, controla la conducta verbal del hablante.
5.    En vez de considerar el lenguaje como un conjunto de palabras que refieren a objetos, el significado de las palabras se investiga en términos de las variables que determinan su ocurrencia en una instancia particular. El significado se comprende al identificar las variables que controlan la emisión.
6.    Propone el concepto de "conducta gobernada por reglas". Dentro de la conducta operante diferencia dos subclases: "conducta moldeada por las contingencias" (CMC) y "conducta gobernada por reglas" (CGR). La CGR ocurre cuando el individuo actúa de acuerdo a reglas explicitas, consejos, instrucciones, modelos de actuación, planes, máximas, etc.
7.    Las "reglas" son estímulos que especifican contingencias. De manera directa o por implicación de la experiencia previa, la regla especifica una consecuencia ambiental de ciertas conductas (por ejemplo: "quienes aprueban con 7 no rinden examen final"). Funcionan como estímulos discriminativos.
8.    El efecto de una regla sobre un individuo depende de la historia de aprendizaje de ese individuo respecto a la conducta (operante) de "seguir reglas". Una persona seguirá reglas en la medida en que la conducta previa en respuesta a estímulos verbales similares (reglas, consejos) haya sido reforzada. Por eso, la selección por consecuencia es central para la CGR, aunque de manera menos directa que en la CMC. La mayoría de las conductas humanas son producto tanto de contingencias como de reglas.


VIGTOSKY:    TEORÍA COGNOSCITIVA:
Sostiene que el lenguaje y el pensamiento están separados y son distintos hasta los dos años aproximadamente, tiempo a partir del cual ambos coinciden en un nuevo tiempo de compartimiento. En este momento el pensamiento empieza a adquirir algunas características verbales y el habla se hace racional, manipulándose como educto expresivo que es el pensamiento.

Vigotsky no solo examina el aspecto de las funciones desde el punto biológico, también cultural, tomando al lenguaje como una herramienta para el ser humano de comunicación social. Plantea que la palabra codifica la experiencia, la cual es producto del trabajo del hombre, la palabra se encuentra ligada a la acción y tiene un carácter simpráxico hasta transformarse en un sistema de códigos independientes de la acción. Para Vigotsky la palabra da la posibilidad de operar mentalmente los objetos, donde cada palabra cuenta con un significado específico para el contexto situacional.

Actos de habla: significado y fuerza ilocutiva.
Bibliografía: Acero, Bustos. Introducción a la filosofía del lenguaje Cátedra 1996

L. Wittgenstein fue el pensador que inició el giro de los estudios semánticos del lenguaje, que se podrían concretar en la pregunta ¿en qué consiste el significado, de una palabra, de una frase, de una oración? Hacia los estudios pragmáticos que quizás pudiésemos condensar en la cuestión ¿Cómo se usan tales y cuales palabras?
"El cuaderno azul" una de sus obras póstumas, se abre con nuestra pregunta inicial ¿Cuál es el significado de una palabra? Y responde: el problema filosófico de cuál pueda ser la naturaleza de los significados. Se trata de un pseudo problema: aténgase usted al uso o usos de las palabras, frases u oraciones que le atañen porque eso es lo único que importa, para comprender como es que un signo tiene vida.
La importancia que para el análisis filosófico ha demostrado posee la concepción del significado como uso ha sido incalculable.
Distingue, en lo que se refiere al uso de las palabras entre su gramática superficial "esa parte de su uso que uno diría, puede ser captada por el oído y su gramática profunda o gramática lógica que tiene que ver con las reglas que determinan cómo han de emplearse las palabras".

Teoría de los actos del habla (1911-60)


Fue J. Austin "How to do things with words" quien clasificó los actos del habla en locutivos, ilocutivos y perlocutivos.
[Cómo hacer cosas con palabras: Palabras y acciones (How to Do Things with Words). Barcelona: Paidós, 1982.]
Un acto locutivo es un acto consistente en decir algo. A su vez, todo acto de decir algo puede ser descompuesto en un acto fonético (emisión de sonidos) y un acto fáctico (esos sonidos se organizan acorde a un sistema gramatical) y un acto rético (esos sonidos se emiten con un sentido y una referencia, en el sentido de Frege)
Un acto ilocutivo a diferencia de un acto de decir algo, es un acto que se realiza al decir algo. Realizar un acto locutivo presupone realizar un acto ilocutivo.
Ejemplo: "El toro está a punto de embestir" es un acto locutivo en cuanto dice que un acto elocutivo, en cuanto avisa.
Un acto perlocutivo es un acto que uno realiza por el hecho de haber realizado un acto elocutivo, pero nada garantiza que todo acto ilocutivo vaya acompañado de un acto perlocutivo.

Filosofía del lenguaje
La filosofía del lenguaje es el estudio del lenguaje en sus aspectos más generales y fundamentales, como la naturaleza del significado, de la referencia, y la relación entre el lenguaje, los usuarios del lenguaje y el mundo. A diferencia de la lingüística, la filosofía del lenguaje se sirve de métodos no-empíricos (como experimentos mentales) para llegar a sus conclusiones.
[Blackburn, Simon W., «Philosophy of language» (en inglés), Encyclopædia Britannica Online, p. 1, consultado el 15 de junio de 2009]
En general, en la filosofía del lenguaje no se hace diferencia entre el lenguaje hablado, el escrito o cualquiera otra de sus manifestaciones, sino que se estudia aquello que es común a todas ellas.

La semántica es la parte de la filosofía del lenguaje (y de la lingüística) que se ocupa de la relación entre el lenguaje y el mundo.
[ Blackburn, Simon W., «philosophy of language», Encyclopedia Britannica Online, consultado el 3 de diciembre de 2009 ]

Algunos problemas que caen bajo este campo son el problema de la referencia, la naturaleza de los predicados, de la representación y de la verdad.
[Blackburn, Simon W., «Philosophy of language», Encyclopedia Britannica Online, consultado el 3 de diciembre de 2009 ]

En el Crátilo, Platón señaló que si la conexión entre las palabras y el mundo es arbitraria o convencional, entonces es difícil entender cómo el lenguaje puede permitir el conocimiento acerca del mundo.
[Blackburn, Simón W., «philosophy of language», Encyclopedia Britannica Online, consultado el 3 de diciembre de 2009]

Por ejemplo, es evidente que el nombre «Venus» pudo haber designado cualquier cosa, aparte del planeta Venus, y que el planeta Venus pudo haberse llamado de cualquier otra forma. Luego, cuando se dice que «Venus es más grande que Mercurio», la verdad de esta oración es convencional, porque depende de nuestras convenciones acerca de lo que significan «Venus», «Mercurio» y el resto de las palabras involucradas. En otro lenguaje, esas mismas palabras podrían, por alguna coincidencia, significar algo muy distinto y expresar algo falso. Sin embargo, aunque el significado de las palabras es convencional, una vez que se ha fijado su significado, parece que la verdad y la falsedad no dependen de convenciones, sino de cómo es el mundo. A este «fijar el significado» se lo suele llamar interpretación, y es uno de los temas centrales de la semántica.

Un problema ulterior en esta dirección es que si una interpretación se da en términos lingüísticos (por ejemplo: «Venus es el nombre del segundo planeta a partir del Sol»), entonces queda la duda de cómo deben interpretarse las palabras de la interpretación. Si se las interpreta por medio de nuevas palabras, entonces el problema resurge, y se hace visible una amenaza de regresión al infinito, de circularidad, o de corte arbitrario en el razonamiento (tal vez en palabras cuyo significado sea supuestamente autoevidente). Pero para algunos este problema invita a pensar en una forma de interpretación no lingüística, como por ejemplo el conductismo o la definición ostensiva.

La pragmática, por otra parte, es la parte de la filosofía del lenguaje que se ocupa de la relación entre los usuarios del lenguaje y el lenguaje. Algunas de las cuestiones centrales de la pragmática son la elucidación del proceso de aprendizaje del lenguaje, de las reglas y convenciones que hacen posible la comunicación, y la descripción de los muchos y variados usos que se le da al lenguaje, entre ellos: describir estados de cosas, preguntar, dar órdenes, contar chistes, traducir de un lenguaje a otro, suplicar, agradecer, maldecir, saludar, rezar, etc.
[Wittgenstein, Ludwig. «§23». Investigaciones filosóficas].



Compartir

Similares:

Related Posts Plugin for WordPress, Blogger...