Rincon Del Vago Teoria
Rincon Del Vago Teoria
Rincon Del Vago Teoria
-Introducción
La psicología cognitiva actual recoge la herencia de esta tradición filosófica desarrollada por
Vigotsky y Piaget, otorgando, de nuevo, tras décadas de hegemonía conductista, iniciadas por
John Broavus Watson, estatus científico del estudio de los procesos mentales, revitalizando el
interés en los asuntos teóricos y, específicamente, los relativos al conocimiento.
De todos modos, el ser humano no es considerado como un receptor pasivo de estímulos ante los
cuales reacciona en función de determinadas leyes de carácter asociativo, ni tampoco la historia de
las conexiones estímulo-respuesta es capaz de explicar la conducta del sujeto, siendo necesario
postular la existencia de notables bases innatas que determinan y restringen, en gran medida, su
comportamiento.
Según George Miller, eminente figura y padre de esta nueva psicología, los humanos podemos ser
considerados como un tipo de informávoros, es decir, como una clase de entidades que, al igual
que los ordenadores, consumimos, procesamos información.
Antes de adentrarnos en el tema, en el si del concepto, su historia, teorías y sus autores más
destacados, es necesario decir que el papel determinante en la explicación de la conducta lo tiene
ya no la propia realidad, sino la representación que de la misma realizan los sujetos que viene
determinada por los conocimientos ya almacenados y por sus metas y propósitos. Además, el
sistema cognoscitivo humano está caracterizado por sus limitaciones, tanto en la capacidad del
procesamiento y almacenamiento, como debidas a la lentitud de muchos procesos.
2.-Breve historia
Las teorías del procesamiento de la información utilizan, en forma más o menos explícita, la
metáfora del ordenador, que considera al organismo humano como un dispositivo computaciones
que manipula símbolos y que se diferencia de éste en su estructura física, su hardware es biológico
y no electrónico. Para entender todo esto es necesario hacer mención sobre la gran repercusión
que tuvieron las tesis venidas desde la cibernética y la teoría de la comunicación.
Desde la cibernética nos llegan los estudios realizados por Norbert Wiener sobre los
servomecanismos que permitían hacer correcciones en la trayectoria de un misil con rectificaciones
continuas; así había comprobado la importancia de los procesos autorreguladores y de
retroalimentación en las conductas tendentes a la consecución de un fin.
Por su parte, desde la teoría de la comunicación nos llegan los estudios de Claude Shannon, que
demostró que la información puede ser analizada independientemente del contenido de la misma,
centrándose únicamente en los rasgos abstractos que incluye la transmisión de información entre
un emisor y un receptor, y analizando los problemas y limitaciones que tal comunicación tiene a
través de un sólo canal.
Con menos importancia que las dos anteriores mencionadas, no se debe olvidar el mencionar otros
estudios, que en gran medida, contribuyeron al desarrollo de esta teoría, los estudios de John von
Neumann y Alan Turing sobre la computadores, sus procedimientos estudios posteriores; los
estudios neurofisiológicos de Karl Lashley y los estudios en el campo lingüístico de Noam
Chomsky.
De más importancia en el campo encontramos a la persona de George Miller, ya mencionada
anteriormente, que contribuyó decisivamente en este campo del procesamiento de la información,
aportando importantes teorías. Así, en 1956, mostró que el sistema de procesamiento humano, es
limitado, al establecer un número máximo de elementos que pueden ser procesados al mismo
tiempo.
Habiendo hecho esta breve mención histórica, podemos ya centrarnos en el análisis detallado de la
teoría del procesamiento de la información, pero antes de analizar los rasgos principales de estos
estudios y la explicación al desarrollo que proporcionan, veremos la estructura básica y el
funcionamiento del sistema de información humano. Posteriormente, veremos la teoría de Newell y
Simon, que se ha convertido en uno de los puntos de vista más influyentes dentro del enfoque del
procesamiento de la información.
Referente a este apartado, la teoría de Atkinson y Shiffrin ha permitido especificar el curso que
sigue la información al ser procesada, estableciendo la existencia de tres almacenes o sistemas de
memoria: memoria sensorial, memoria a corto plazo y memoria a largo plazo. Estos se sitúan
secuencialmente de manera que la información proveniente del medio a través de los sentidos, se
registra en la memoria específica de cada sentido, de aquí pasa a la memoria a corto plazo sonde
se codifica y almacena durante algunos segundos, y finalmente llega a la memoria a largo plazo
donde es almacenada definitivamente.
La memoria sensorial permite obtener una descripción bastante completa y exacta de la realidad y
mantenerla durante un período de tiempo muy breve: entre 100 y 500 milisegundos. Este mínimo
intervalo es suficiente para que la información proveniente del medio pueda ser codificada y
almacenada en la memoria a corto plazo. En esta última la información puede ser mantenida
durante períodos de tiempo significativamente mayores, aunque limitados, entre 15 y 20 segundos,
estando asimismo su capacidad de almacenamiento a siete unidades o ítems, tal y como había
demostrado George Miller. Ambas limitaciones, tiempo y capacidad, pueden ser superadas
mediante las estrategias de repetición y agrupamiento. La estrategia de repetición permite
mantener la información en el almacén a corto plazo durante el tiempo que queramos. Mediante la
agrupación es posible mantener en el almacén a corto plazo unidades mayores y más complejas,
unidades significativas como palabras, y no ya letras o números sin sentido. El almacén a corto
plazo, tiene, así, un carácter marcadamente activo que ha llevado a algunos a hablar de memoria
en funcionamiento o de trabajo.
En este punto el sujeto codifica e interpreta la información procedente del medio, conectándola con
la repetición con la ya almacenada en el sistema. Asimismo, mediante la repetición y la elaboración
u organización de la información, ésta es transferida al almacén a largo plazo donde es mantenida
por grandes períodos de tiempo.
El marco de investigación de esta teoría debe ser cumplimentado con otra investigación y teoría, la
aportada por Craik y Lockhart, que sostienen la existencia de diferentes niveles de profundidad en
el procesamiento y que cuanto más profundo sea el nivel al que ha sido procesada la información,
mejor será el recuerdo posterior. Esta distinción entre procesamiento superficial y profundo ha
tenido gran éxito en diferentes campos.
Newell y Simon son considerados como los fundadores de la inteligencia artificial junto con Minsky
y McCarthy.
Según esta teoría la inteligencia debía ser estudiada desde una perspectiva funcional, no
fisiológica. Esta búsqueda de teorías generales de la conducta inteligente fue un rasgo de las
primeras formulaciones en la inteligencia artificial, siendo posteriormente sustituido por el
reconocimiento del importante papel que juega en la resolución de diversas tareas el conocimiento
específico de la citada tarea.
En palabras del propio Simon: “Si podemos construir un sistema de procesamiento de información
con reglas de conducta que lo llevan a comportarse como sistema dinámico que intentamos
describir, entonces este sistema es una teoría del niño en un estadio del desarrollo. Una vez
hayamos descrito un estadio particular mediante un programas nos enfrentaríamos con la tarea de
describir que mecanismos adicionales de procesamiento de información son necesarios para
simular cambios evolutivos, la transición de un estadio al siguiente; es decir, necesitaríamos
describir como modificaría el sistema su propia estructura. Por lo tanto, la teoría tendría dos partes:
Un programa para descubrir la actuación en un estadio particular y un programa de aprendizaje
que gobierne la transición de un estadio a otro.
Este pequeño párrafo, resulta, en nuestra opinión, singularmente claro respecto al punto de vista
de procesamiento de información sobre el desarrollo intelectual, e incluye todo un programa de
investigación.
Si queremos resumir las aportaciones de la teoría de Newell y Simon a una mejor comprensión del
pensamiento infantil y de sus cambios con la edad, podemos resumirlas en tres:
• La simulación por ordenador: los sistemas de producción del pensamiento humano, están
formados por un conjunto de producciones, en donde cada una de ellas es una regla
condición-acción; es decir, estas reglas a partir del cumplimiento de una determinada
condición establecen la realización de una acción concreta. Un sistema de producciones
actúa mediante el ciclo reconocer-actuar. Las acciones pueden modificar el estado de
conocimiento del sistema añadiendo, eliminando o cambiando los elementos existentes;
las acciones también pueden corresponder a interacciones perceptivas o del ambiente.
ABSTRACT:
Al hablar de las teorías del procesamiento de información en este articulo nos
remitimos algunas descripciones teóricas entre ellas la teoría computacional en
relación con la conocida maquina de turing, a su vez basados en principios
matemáticos y conjuga varias ramas de las matemáticas. la teoría cibernética Esta
teoría tuvo una influencia central en el modo de pensar sobre la conducta humanan
ya que permitió introducir la teleología, las causas finales dentro del análisis
científico y finalmente lo que recientemente se habla la teoría por simulación de
computadora.
Esta ultima hace énfasis a que un operador es aquel que resuelva el problema, así
mismo el papel del psicólogo en la simulación por computadora es definir con
precisión la estrategia para la generación de movimiento, que hace énfasis en el
pensamiento como selección de respuestas.
ORIGENES:
La teoría de la información fue desarrollada inicialmente, en 1948, por el
Ingeniero electrónico estadounidense Claude E. Shannon, en su artículo, A
Mathematical Theory of Communication (Teoría matemática de la comunicación)
(Shanon y weaver 1949). esta teoría es central a todos los empeños de la ciencia
cognitiva porque permite concebir la información de una forma independiente del
contenido; es entonces, que Shannon se preocupo por la transmisión de la
información y la cantidad que lograría transmitir un sistema artificial como el
teléfono, y es allí en donde se dirige un nuevo termino y es digito binario o como
ahora lo conocemos BIT. Sin embargo se creó la información, como representación
de una materia concreta. Por tal motivo la insuficiencia de una base teórica para la
tecnología de la comunicación surgió del acrecentamiento del obstáculo y de la
masificación de las vías de comunicación, tales como el teléfono, las redes de
teletipo y los sistemas de comunicación por radio.
Específicamente, si nos centramos en la teoría del procesamiento de la
información, para autores como Lachman y Butterfield, el procesamiento de
información considera que unas pocas operaciones simbólicas, relativamente
básicas, tales como codificar, comparar, localizar, almacenar, pueden, en último
extremo, dar cuenta de la inteligencia humana y la capacidad para crear
conocimiento, innovaciones y tal vez expectativas respecto al futuro. La concepción
del humano como un procesador de información se basa en la analogía entre la
mente humana y el funcionamiento de una computadora. En otras palabras, se
adoptan los programas informáticos como metáfora del funcionamiento cognitivo
humano es por eso que La teoría de la información también abarca todas las
restantes formas de concesión y almacenamiento de información, incluyendo la
televisión y los impulsos eléctricos que se transmiten en las computadoras y en la
grabación óptica de datos e imágenes. junto con la teoría de la computación, la
teoría de la información se fundamento al concebir la mente humana como otro
medio de procesamiento de información como veremos mas adelante en este
articulo, ahora dirijámonos mas explícitamente a la teoría de la información.
o LA TEORÍA DE LA INFORMACIÓN
Según la teoría de la información, uno Esta teoría tuvo una influencia central en el
modo de pensar sobre la conducta humanan ya que permitió introducir la
teleología, las causas finales dentro del análisis científico.
La creación de las máquinas cibernéticas abrió la posibilidad de considerar las
intenciones y metas de las personas como causas de su conducta estudiables
científicamente.
PRINCIPIOS BASICOS DE LA CIBERNÉTICA
de los principios básicos de la cibernética establece que la información es
estadística por naturaleza y se mide de acuerdo con las leyes de la probabilidad. En
este sentido, la información es concebida como una medida de la libertad de
elección implícita en la selección. A medida que aumenta la libertad de elección,
disminuye la probabilidad de que sea elegido un determinado mensaje. La medida
de la probabilidad se conoce como entropía.
De acuerdo con la segunda ley de la termodinámica, en los procesos naturales
existe una tendencia hacia un estado de desorganización, o caos, que se produce sin
ninguna intervención o control. En consecuencia, de acuerdo con los principios de
la cibernética, el orden (disminución de la entropía) es lo menos probable, y el caos
(aumento de la entropía) es lo más probable.La conducta intencionada en las
personas o en las máquinas exige mecanismos de control que mantengan el orden,
contrarrestando la tendencia natural hacia la desorganización.
o LA CIBERNETICA Y LA PSICOLOGIA.
3. Diccionario de psicología