MediTECH Electronik GmbH - Warnke-Verfahren: Hören - Sehen - Bewegen

1.3.1 Automatisierung



Wie oben (in 1.2.2.2) bereits erwähnt, gibt es erworbene motorische Reaktionen, beispielsweise im Bereich des Sprechens, die quasi "automatisch" ausgelöst und gesteuert werden. Man bezeichnet derartige Reaktionen deshalb auch als automatisiert. Eine exakte und allgemein anerkannte Definition des Automatisiertheitsbegriffs gibt es nicht, doch lehrt die Alltagserfahrung, daß geübte Bewegungshandlungen schnell und ohne erkennbare geistige Anstrengung - also "automatisch" - ausgeführt werden können (siehe hierzu bereits James, 1890). Die in Abschnitt 1.1.1 behandelten Fehlhandlungen deuten ebenso wie das Phänomen der unbewußten Auslösung vorprogrammierter Reaktionen (siehe 1.2.2.4) darauf hin, daß auch relativ komplexe Handlungen tatsächlich weitgehend unabhängig von den momentan ablaufenden Bewußtseinsprozessen ausgelöst und/oder gesteuert werden können.

1.3.1.1 Das traditionelle Automatisierungskonzept

Den zur Automatisiertheit führenden Lernprozeß bezeichnet man auch als Automatisierung. Das Automatisierungsphänomen wurde - und das mag vielleicht verwundern - weniger im Hinblick auf motorische Lernprozesse, als vielmehr im Hinblick auf sensorisch-perzeptive und (im engeren Sinne) kognitive Informationsverarbeitungsprozesse untersucht (siehe z.B. LaBerge, 1981; Schneider, Dumais & Shiffrin, 1984). Automatisierung und Automatisiertheit werden von auf diesem Gebiet arbeitenden Forschern häufig mit dem Konzept der Aufmerksamkeit in Verbindung gebracht. Sie nehmen an, daß automatisierte Reaktionen keine (bewußte) Aufmerksamkeit erfordern und daß Automatisierung mit einer kontinuierlich geringer werdenden Aufmerksamkeitsbeanspruchung einhergeht (z.B. Shiffrin & Schneider, 1977). "Aufmerksamkeit" wird hierbei als eine homogene Instanz konzipiert, die sich durch begrenzte Verarbeitungskapazität auszeichnet: Je höher der Automatisiertheitsgrad, desto mehr freie Aufmerksamkeits- oder Verarbeitungskapazität steht dem zentralen Informationsverarbeitungssystem (dem sogenannten Arbeitsspeicher, Baddeley, 1986) zur Verfügung.

Diese Konzeption der Automatisierung kommt dem Alltagsverständnis nahe und deckt sich mit der verbreiteten Auffasung, daß beim motorischen Lernen verschiedene Stadien oder Phasen unterschieden werden können. Fitts (1964; Fitts & Posner, 1967; vgl. Adams, 1971) geht beispielsweise davon aus, daß der Lernprozeß mit einer kognitiven Phase beginnt, später in eine assoziative Phase übergeht und sich schließlich in einer autonomen Phase vervollkommnet. Von der kognitiven Phase nimmt Fitts an, daß sie im wesentlichen mit der Auswahl und Erprobung dessen, was zu tun ist, welche Strategien brauchbar sind, etc., ausgefüllt ist. In diesem Anfangsstadium des Fertigkeitserwerbs sind nach Fitts verbal-kognitive Informationsprozesse dominierend, und der Lernende profitiert in besonderem Maße von verbalen Instruktionen und Demonstrationen des Zielverhaltens. Demgegenüber würden in der assoziativen Phase verbal-kognitive Prozesse zurücktreten und zunehmend durch "primitivere", assoziative Lernprozesse ersetzt, die sich hauptsächlich auf das Wie der Bewegungsausführung beziehen. Während in der kognitiven Phase relativ rasche Lernfortschritte gemacht werden, verlangsamt sich der Lernprozeß in der anschließenden assoziativen Phase zusehends. In dem von Fitts angenommenen dritten und letzten Lernabschnitt, der autonomen Phase, wird die Bewegung automatisiert; d.h. der Handelnde kann die Bewegung sicher und schnell ausführen, ohne ihr (besondere) Aufmerksamkeit schenken zu müssen.

Das aufmerksamkeitsbezogene Automatisierungskonzept, wie es in der Phaseneinteilung von Fitts zum Ausdruck kommt, hat sicherlich Erklärungswert und wird durch verschiedene Befunde gestützt. Es steht im Einklang mit differentiellpsychologischen Befunden, nach denen sich die Teilfähigkeiten, aus denen sich eine bestimmte perzeptiv-motorische Fertigkeit "zusammensetzt", mit fortschreitender Übung verringern und so verlagern, daß die Ausprägung der intellektuellen Fähigkeiten einer Person immer weniger dazu geeignet ist, deren Leistung vorherzusagen (Adams, 1953, Fleishman & Hempel, 1955; Fleishman & Rich, 1963; vgl. Heuer, 1984). Auch für die zentrale Annahme, daß hochautomatisierte Bewegungen "unbewußt" gesteuert werden und somit das Arbeitsgedächtnis nicht belasten, gibt es Belege. Zum einen konnte gezeigt werden, daß massive Übung in einem Wahlreaktionsexperiment zum Verschwinden der als Hicksches Gesetz bekannten Beziehung führen kann, nach der die Wahlreaktionszeit mit (dem Logarithmus aus) der Anzahl der möglichen Reiz-Reaktionsalternativen (linear) ansteigt (Mowbray & Rhoades, 1959; siehe auch Hellyer, 1963). Zum anderen läßt sich die aus dem Alltag bekannte Beobachtung, daß Routineaktivitäten problemlos "nebenbei", d.h. während man sich gleichzeitig mit anderen Dingen beschäftigt, durchgeführt werden können, mit dem beschriebenen Ansatz auf einfache Weise erklären: Da die automatisierte Tätigkeit das Arbeitsgedächtnis nicht belastet, steht dessen volle Kapazität für die "bewußte" Informationsverarbeitung zur Verfügung (Posner & Snyder, 1975; Shiffrin & Schneider, 1977).

Das zuletzt angesprochene Phänomen wird im Fachjargon auch als das Ausbleiben einer Interferenz bei Doppelaufgaben (dual-task interference) bezeichnet. Es gibt verschiedene empirische Belege, die darauf hindeuten, daß Doppelaufgaben teilweise tatsächlich ohne gegenseitige Interferenz bearbeitet werden können. So fanden Allport, Antonis & Reynolds (1972), daß geübte Pianisten (nach einer kurzen Einübungsphase) einen über Kopfhörer dargebotenen Text nachsprechen konnten, während sie ihnen unbekanntes Notenmaterial vom Blatt spielten. In einer zweiten Sitzung wurde die Schwierigkeit des Notenmaterials erhöht, ohne daß hierunter die Leistung im Nachsprechen litt. Fehlerfreies Nachsprechen impliziert nicht, daß die Bedeutung des Nachgesprochenen verstanden wird. Tatsächlich verstand nur eine Versuchsperson in der Studie von Allport et al. (1972) den nachgesprochenen Text ebenso gut wie Versuchspersonen einer Kontrollgruppe, die den Text lediglich hörten. Bei dieser Versuchsperson handelte es sich um eine besonders versierte Pianistin, bei der offenbar nicht nur das Nachsprechen, sondern auch das Vom-Blatt-Spielen weitgehend "automatisch" ablief.

1.3.1.2 Alternative Automatisierungskonzepte

Kritik der traditionellen Sichtweise. Die aufmerksamkeits- oder kapazitätstheoretische Forschung hat eine Vielzahl interessanter Methoden und Untersuchungsergebnisse hervorgebracht. Leider erwiesen sich die Befundmuster insgesamt als wenig einheitlich und in hohem Maße von aufgabenspezifischen Faktoren abhängig (siehe z.B. Heuer & Wing, 1984, Neumann, 1987, 1992). Insbesondere trifft dies auf Experimente zu, in denen mit Doppelaufgaben gearbeitet wurde. So fand Shaffer (1975b) in einer mit derjenigen von Allport et al. (1972) vergleichbaren Studie, daß sich das Abtippen gelesener Wörter mit dem Nachsprechen gehörter Wörter weitgehend störungsfrei kombinieren läßt, während das Tippen gehörter Wörter kaum gelingt, wenn gleichzeitig andere Wörter vorgelesen werden sollen. Ähnliche Ergebnisse erhielten McLeod und Posner (1984) in einem Laborexperiment.

Die vielfach belegte Aufgabenspezifität der Doppelaufgaben-Interferenz verträgt sich nicht gut mit der Vorstellung von einer einzigen, in ihrer Kapazität begrenzten und von allen nicht-automatischen Prozessen in Anspruch genommenen Aufmerksamkeitsresource. Es erscheint daher folgerichtig, von der Homogenitätsannahme (Neumann, 1992) abzurücken und, statt nur einer, mehrere Aufmerksamkeitsresourcen zu postulieren (z.B. Navon & Gopher, 1979; Wickens, 1984). Diese Ausweitung des Aufmerksamkeitskonzepts birgt jedoch die Gefahr von Zirkelschlüssen, weil die hypothetischen Resourcen anhand der Leistungen bei Doppelaufgaben operationalisiert werden. Diese Leistungen mit dem Konzept der multiplen Resourcen erklären zu wollen, hieße, sich im Kreis zu bewegen (Neumann, 1992; vgl. Navon, 1984).

Außerdem gibt es berechtigte Zweifel daran, ob sich das Interferenzkriterium überhaupt zur Operationalisierung von Aufmerksamkeitsprozessen eignet (Neumann, 1992). Es gibt kein absolutes Maß der Interferenz, so daß das beobachtete Ausmaß der Interferenz von dem gewählten Performanzkriterium abhängt. Pashler (1989, 1993) hat sogar nachgewiesen, daß man bei ein und demselben Aufgabenpaar, je nach Performanzkriterium (Reaktionszeit vs. Genauigkeit), Interferenz oder keine Interferenz "beobachten" kann.

Neumanns Automatisierungskonzept. Neumann (z.B. 1985, 1992) hat eine Reihe weiterer schwerwiegender Argumente gegen das traditionelle Aufmerksamkeitskonzept vorgebracht, die hier nicht wiederholt zu werden brauchen (vgl. auch Allport, 1989; Navon, 1984; Pashler, 1993). Angesichts dieser Kritik erscheint die traditionelle Auffassung des Automatisierungsprozesses revisionsbedürftig. Neumann (1984) schlägt vor, einer schon von Wundt (1903) formulierten Idee zu folgen und das Wesen der Automatisiertheit in der übungsbedingten Kopplung sensorischer und motorischer Prozesse zu sehen (vgl. 1.2.2). Schon Wundt hat erkannt, daß für die Ausbildung solcher Reiz-Reaktionsverbindungen eine invariante Beziehung zwischen Reiz und Reaktion gegeben sein muß und daß die Reaktion normalerweise vom inneren Zustand der Person, insbesondere von deren aktuellem Handlungsziel, abhängt. Nach Neumann (1984) beinhaltet der Automatisierungsprozeß den Erwerb einer spezifischen Fertigkeit, und eine Reaktion ist in dem Maße als automatisiert zu bezeichnen, in dem ihre Parameter (vgl. 1.2.1.3) durch die erworbene Fertigkeit in Verbindung mit sensorischer Information spezifiziert werden können. Im Gegensatz zur traditionellen Sichtweise betrachtet Neumann Automatisiertheit nicht als eine intrinsische Eigenschaft bestimmter Prozesse, sondern als eine emergente Eigenschaft der aktuellen Akteur-Umwelt-Beziehung.

Neumanns Automatisierungskonzept liefert nicht nur einen allgemeinen Erklärungsrahmen für eine Vielzahl von Befunden (siehe Neumann, 1984, 1992), sondern es verträgt sich auch ausgezeichnet mit der in den vorhergehenden Abschnitten vertretenen Sichtweise sensumotorischer Strukturen und Prozesse. Automatisierung ist hiernach durch die übungsbedingte Verlagerung von Teilfunktionen auf untergeordnete Steuerungsebenen charakterisiert. Diese Auffassung vom Automatisierungsprozeß läßt sich sehr viel besser als die traditionelle mit der Tatsache vereinbaren, daß viele perzeptiv-motorische Spitzenleistungen ein hohes Maß an Konzentration erfordern. Man denke nur an die Vorbereitungsphase beim Tennisaufschlag, beim Basketball-Freiwurf oder beim Hochsprung (vgl. Kohl, 1956). Die Verlagerung von Teilfunktionen auf "niedere" Ebenen impliziert eben nicht, daß diese ihre Funktionen unabhängig vom inneren Zustand des Handelnden erfüllen (vgl. 1.2.2.2).

Mechanismen. In Anlehnung an die Computersprache kann man die angesprochene Verlagerung von Teilfunktionen auch als Kompilierung bezeichnen. Mit Kompilierung ist die Übersetzung von Computerprogrammen in Maschinensprache gemeint. Liegt ein Programm bereits in kompilierter Form vor, kann es erheblich schneller ausgeführt werden, als wenn es erst während des Programmablaufs schrittweise übersetzt werden muß. Darüberhinaus kann man bei der Computer-Programmierung mehr oder weniger "maschinennahe" Befehle unterscheiden. Je abstrakter, d.h. "maschinenferner" ein Programm formuliert ist, desto langsamer ist im allgemeinen seine Ablaufgeschwindigkeit. In Analogie hierzu kann man den Automatisierungsprozeß als den Erwerb "effektornäherer" Routinen ansehen. Diese Metapher macht den mit fortschreitender Übung zu beobachtenden Geschwindigkeitszuwachs (z.B. Crossman, 1959) sowie die Einengung der leistungsbestimmenden Teilfähigkeiten (Heuer, 1984) verständlich.

J. R. Anderson (1982, 1987) unterscheidet in seiner allgemeinen Theorie des Fertigkeitserwerbs zwei Komponenten der Kompilierung: Prozeduralisierung und Zusammensetzung (composition). Unter Prozeduralisierung versteht er den Aufbau bereichsspezifischer Wenn-Dann-Regeln oder Produktionen. Dieser Erwerb sogenannten prozeduralen Wissens wird durch bereichsübergreifende Problemlöseheuristiken vermittelt, die auf dem verfügbaren deklarativen Wissen, d.h. dem expliziten, faktischen Wissen, operieren. Unter Zusammensetzung versteht Anderson die Zusammenfassung oder Verschmelzung mehrerer Produktionen zu einer einzigen. Der Zusammensetzungsprozeß kommt nach Anderson immer dann zur Anwendung, wenn eine aus mehreren Produktionen bestehende Sequenz das Erreichen eines betimmten Ziels oder Teilziels garantiert.

Andersons Theorie wurde in erster Linie im Hinblick auf den Erwerb kognitiver Fertigkeiten formuliert, doch sie läßt sich auch auf den Bereich des perzeptiv-motorischen Lernens übertragen. Sie kann u.a. zur Erklärung des sogenannten Potenzgesetzes der Übung (power law of practice) herangezogen werden (J. R. Anderson, 1982; vgl. auch Annett, 1985; Logan, 1988; MacKay, 1982; Newell & Rosenbloom, 1981; Rosenbloom & Newell, 1987). Diese empirische Gesetzmäßigkeit besitzt einen großen Gültigkeitsbereich und besagt, daß die zur Ausführung einer (Bewegungs-) Aufgabe benötigte Zeit mit der Anzahl der Übungsdurchgänge kontinuierlich (einer Potenzfunktion folgend) abnimmt.

Mit Andersons Konstrukt der Zusammensetzung eng verwandt ist der häufiger gebrauchte Begriff der Gruppierung (chunking). Zumindest für den Einspeicherungsprozeß, die sogenannte Enkodierung, kann als gesichert gelten, daß im Zuge langfristiger Übung in einer invarianten Aufgabenumgebung immer komplexere Gruppierungen oder Chunks gebildet werden (z.B. Bryan & Harter, 1899). Nimmt man an, daß bestimmte Chunks sowohl beim Einspeicherungsvorgang als auch bei der Bewegungsproduktion involviert sind (z.B. MacKay, 1987; vgl. Prinz, 1990), so kann man die Bildung von Chunks als den wesentlichen Mechanismus zum Aufbau hierarchisch organisierter Wahrnehmungs- und Handlungsstrukturen ansehen.

Unabhängig davon, welche spezifischen Annahmen über die kognitive Architektur im einzelnen gemacht werden, stimmen viele, auf ganz verschiedenen Gebieten arbeitende Forscher darin überein, daß die Ausbildung von Chunks beim Fertigkeitserwerb eine zentrale Rolle spielt (siehe neben den bereits genannten Arbeiten z.B. Keele, 1973; Rosenbaum, 1991; Schmidt, 1988). Um so erstaunlicher mag es erscheinen, daß es für diese Annahme, zumindest was den engeren Bereich der Motorik angeht, kaum empirische Belege gibt. Eine Untersuchung von Pew (1966) bildet in dieser Hinsicht eine Ausnahme.

Seine Versuchspersonen hatten die Aufgabe, einen Cursor möglichst in der Bildschirmmitte zu halten, indem sie zwei Tasten betätigten. Die rechte der beiden Tasten beschleunigte den Cursor nach rechts; die linke Taste beschleunigte ihn nach links. Wenn keine der beide Tasten gedrückt wurde, beschleunigte der Cursor nach rechts oder links und verschwand vom Bildschirm. In den ersten Übungssitzungen betätigten die Versuchspersonen typischerweise ungefähr zwei- bis dreimal pro Sekunde abwechselnd die linke und rechte Taste. Ihr Verhalten deutete darauf hin, daß sie nach jedem Tastendruck pausierten, um anschließend durch Betätigen der anderen Taste die Cursorbewegung wieder umzukehren. Mit fortschreitender Übung verschwand diese wenig effiziente Strategie. Die Versuchspersonen erhöhten die Frequenz der alternierenden Tastenbetätigungen nun deutlich. Solange die Tastendrücke in gleichen Zeitintervallen aufeinander folgten, konnten sie den Cursor weitgehend in der Bildmitte halten. Die kleinste Unregelmäßigkeit in der Zeitgebung führte jedoch zu einem "Driften" des Cursors in eine der beiden Richtungen. Zwei der fünf Versuchspersonen reagierten auf dieses unvermeidliche Driften offenbar immer dann, wenn die Zielabweichung einen kritischen Wert erreichte. Die betreffenden Versuchspersonen schienen dann kurz zu pausieren, um eine diskrete Korrektur vorzunehmen und anschließend wieder mit einer "Salve" schneller Tastenbetätigungen fortzufahren. Die Salven wurden vermutlich als Ganze vorprogrammiert, d.h. sie waren Bestandteil eines übergeordneten "Chunks" in Form eines Bewegungsprogramms. Die anderen drei Versuchspersonen entwickelten eine besonders erfolgreiche Steuerstrategie, bei der keine erkennbaren Pausen oder diskrete Korrekturen auftraten. Die Strategie bestand darin, den Cursor durch systematische Veränderungen der relativen Zeitgebung der Tastenbetätigungen zu steuern.

Die letztgenannte Strategie impliziert, daß die relative Zeitgebung der Einzelbewegungen nicht invariant ist, sondern im Gegenteil als kritischer Parameter kontinuierlich moduliert wird. Es kommt also kein generalisiertes motorisches Programm im Schmidtschen Sinne zur Anwendung, sondern ein sensumotorischer Kopplungsmechanismus - Pew und Rosenbaum (1988) sprechen von einem Steuerungsprinzip (control law). Die Ausbildung eines sensumotorischen Kopplungsmechanismus oder Steuerungsprinzips ist aber wiederum nichts anderes als Automatisierung im Neumannschen Sinne, denn sie führt zu automatischer Parameterspezifikation (Neumann, 1984, 1990).

Originalquelle/Herausgeber dieser Publikation


Aus: Krist, H. (1995). Kognitive Entwicklung, Handlungssteuerung und intuitive Physik: Eine integrative Forschungsperspektive. Habilitationsschrift, Universität Frankfurt.


Nach oben   Inhalt drucken

Schnelleinstieg für Sie


Kontakt



MediTECH Electronic GmbH
Langer Acker 7
30900 Wedemark (OT Bissendorf)

Telefon:  +49 (0)5130-97778-0
Fax:   +49 (0)5130-97778-22

E-Mail: service@meditech.de


Kundenbereich



Passwort vergessen?

Termine



Keine Nachrichten in dieser Ansicht.

Mehr Termine