Routinetätigkeiten
Ergebnisse und Fazit
Ergebnisse
In den fünf verschiedenen Simulationsphasen ergeben sich zahlreiche Ergebnisse, wovon einige ausgewählte näher skizziert werden sollen:
- Dem neuronalen Netz gelingt es, die beiden Tätigkeiten, Kaffee und Tee kochen, zu erlernen und in der Testphase in Abhängigkeit der gewünschten Tätigkeit, die durch die entsprechende "Instruktionseinheit" vorgegeben wird, fehlerfrei zu reproduzieren. Folglich kann eine hierarchisch anordbare Aufgabenstruktur auch mit Hilfe eines nicht hierarchischen Modells wie dem vorgestellten rekurrenten Netz abgebildet werden.
- Wie beim menschlichen Verhalten auch produziert das Netz besonders während der Übergänge zweier Subaufgaben, d.h. bei Beendigung einer Teilhandlung und dem Beginn einer neuen Teiltätigkeit, besonders häufig Fehler. Detailliertere Analysen zeigen, dass die Fehlerentstehung intern zumeist einige Schritte vor dem Übergang entsteht (zumeist im mittleren Bereich einer Teiltätigkeit), sich jedoch aufgrund der Akkumulation der Fehlerwerte erst später im "Verhalten" bemerkbar macht.
- Des Weiteren werden ebenfalls wie beim menschlichen Verhalten vom künstlichen Netz vor allem Fehler generiert, bei denen die Teilhandlung zwar korrekt reproduziert wird, aber zum falschen Zeitpunkt beginnt. Außerdem stellt sich eine höhere Fehlerhäufigkeit ein, wenn die abzurufende Tätigkeit (z.B. Kaffee kochen) in der Trainingsphase im Vergleich zur "Konkurrenztätigkeit" (z.B. Tee kochen) seltener ausgeführt wurde.
Fazit
Insgesamt kann das rekurrente Netz von Botvinick und Plaut (2004) für Routinetätigkeiten als alternativer Erklärungsansatz zu den herkömmlich verwendeten hierarchischen Modellen betrachtet werden. Dabei decken sich die Simulationsergebnisse des künstlichen Netzes z.T. besser mit den empirischen Befunden zu Routinetätigkeiten und dort enthaltenem Fehlverhalten als hierarchische Ansätze. Des Weiteren können auf Basis der Simulationsergebnisse auch neue Hypothesen abgeleitet werden, die sich in Untersuchungen überprüfen lassen.
Neben einer weiterführenden Analyse menschlichen Fehlverhaltens mittels Simulation rekurrenter Netze böte sich auch die Anwendung dieser Netze auf nicht routinemäßig durchgeführte Tätigkeiten an (vgl. Botvinick und Plaut, 2004). So ist beispielsweise an Handlungen zu denken, die die Problemlösung betreffen. Möglicherweise greifen Menschen auch bei derartigen Tätigkeiten teilweise auf ihnen bekannte Routinehandlungen zurück (siehe z.B. Anderson und Lebiere, 1998; siehe z.B. Chapman und Agre, 1987).
Kritisch anzumerken ist, dass auch bei diesem Anwendungsbeispiel die überwachte (supervised learning) Backpropagation Lernregel zum Einsatz kommt, deren biologische Plausibilität zumindest fragwürdig erscheint. Positiv hervorzuheben ist in diesem Zusammenhang, dass die Autoren diesen Einwand selbst kritisch diskutieren und auf sequentielle Netze von Dominey (1998; Dominey und Ramus, 2000) verweisen, die mit Hilfe einer bestimmten Variante des verstärkenden Lernens (reinforcement learning) trainiert wurden.